Compréhension du langage et LLMS avec Christopher Manning

Aujourd’hui, nous sommes rejoints par Christopher Manning, le professeur de Thomas M. Siebel en machine à l’apprentissage à l’Université de Stanford et récipiendaire récent de la médaille de l’IEEE John von Neumann 2024. Dans notre conversation avec Chris, nous discutons de ses contributions aux domaines de recherche fondamentaux de la PNL, notamment Incorporation de mots et l’attention. Nous explorons ses perspectives sur l’intersection de la linguistique et des modèles de langue importants, leur capacité à apprendre les structures du langage humain et leur potentiel pour nous enseigner l’acquisition du langage humain. Nous fouillons également dans le concept d ‘«intelligence» dans les modèles de langues, ainsi que les capacités de raisonnement des LLM. Enfin, Chris partage ses intérêts de recherche actuels, des architectures alternatives qu’il prévoit de sortir au-delà du LLM et d’opportunités à venir dans la recherche sur l’IA.