Les LLM sont-ils bons pour le raisonnement causal? avec Robert Osazuwa ness
Aujourd’hui, nous sommes rejoints par Robert Osazuwa Ness, chercheur principal chez Microsoft Research, professeur à la Northeastern University, et fondateur d’Altdeep.ai. Dans notre conversation avec Robert, nous explorons si les grands modèles de langue, en particulier les GPT-3, 3,5 et 4, sont bons pour le raisonnement causal. Nous discutons des repères utilisés pour évaluer ces modèles et les limites qu’ils ont pour répondre aux questions de raisonnement causal spécifiques, tandis que Robert met en évidence la nécessité d’accès aux poids, aux données de formation et à l’architecture pour répondre correctement à ces questions. L’épisode discute du défi de la généralisation dans les relations causales et de l’importance d’incorporer des biais inductifs, explore la capacité du modèle à généraliser au-delà des références fournies et l’importance de prendre en compte les facteurs causaux dans les processus décisionnels.
