Comment les scientifiques essaient d’utiliser l’IA pour déverrouiller l’esprit humain

 Comment les scientifiques essaient d’utiliser l’IA pour déverrouiller l’esprit humain


Par rapport aux modèles psychologiques conventionnels, qui utilisent des équations mathématiques simples, Centaur a fait un bien meilleur travail de prédiction des comportements. Des prédictions précises de la façon dont les humains réagissent dans les expériences de psychologie sont précieuses en soi: par exemple, les scientifiques pourraient utiliser Centaur pour piloter leurs expériences sur un ordinateur avant de recruter et de payer les participants humains. Dans leur article, cependant, les chercheurs proposent que Centaur pourrait être plus qu’une simple machine de prédiction. En interrogeant les mécanismes qui permettent à Centaur de reproduire efficacement le comportement humain, soutiennent-ils, les scientifiques pourraient développer de nouvelles théories sur le fonctionnement interne de l’esprit.

Mais certains psychologues doutent que Centaur puisse nous en dire beaucoup sur l’esprit. Bien sûr, c’est mieux que les modèles psychologiques conventionnels pour prédire comment les humains se comportent, mais il contient également un milliard de paramètres de plus. Et juste parce qu’un modèle se comporte comme un humain à l’extérieur ne signifie pas qu’il fonctionne comme un à l’intérieur. Olivia Guest, professeure adjointe de sciences cognitives informatiques à l’Université Radboud aux Pays-Bas, compare Centaur à une calculatrice, qui peut prédire efficacement la réponse qu’un Whiz de mathématiques donnera lorsqu’on lui sera invité à ajouter deux nombres. «Je ne sais pas ce que vous apprendrez sur l’ajout humain en étudiant une calculatrice», dit-elle.

Même si Centaur capture quelque chose d’important dans la psychologie humaine, les scientifiques peuvent avoir du mal à extraire tout aperçu des millions de neurones du modèle. Bien que les chercheurs d’IA travaillent dur pour comprendre les grands modèles de langue, ils ont à peine réussi à ouvrir la boîte noire. Comprendre un énorme modèle de réseau neural de l’esprit humain peut ne pas s’avérer beaucoup plus facile que de comprendre la chose elle-même.

Une autre approche consiste à aller petit. Le deuxième des deux Nature études Se concentre sur les réseaux de neurones minuscules – certains ne contenant qu’un seul neurone – qui peuvent néanmoins prédire le comportement chez les souris, les rats, les singes et même les humains. Parce que les réseaux sont si petits, il est possible de suivre l’activité de chaque neurone individuel et d’utiliser ces données pour déterminer comment le réseau produit ses prédictions comportementales. Et bien qu’il n’y ait aucune garantie que ces modèles fonctionnent comme les cerveaux qu’ils ont été formés pour imiter, ils peuvent, à tout le moins, générer des hypothèses testables sur la cognition humaine et animale.

Il y a un coût à la compréhensibilité. Contrairement à Centaur, qui a été formé pour imiter le comportement humain dans des dizaines de tâches différentes, chaque minuscule réseau ne peut prédire le comportement que dans une tâche spécifique. Un réseau, par exemple, est spécialisé pour faire des prédictions sur la façon dont les gens choisissent parmi les différentes machines à sous. «Si le comportement est vraiment complexe, vous avez besoin d’un grand réseau», explique Marcelo Mattar, professeur adjoint de psychologie et de sciences neuronales à l’Université de New York qui a dirigé la petite étude de réseau et a également contribué à Centaur. « Le compromis, bien sûr, est que le compréhension est maintenant très, très difficile. »

Ce compromis entre la prédiction et la compréhension est une caractéristique clé de la science axée sur le réseau neural. (Il se trouve que j’écris également un livre à ce sujet.) Des études comme Mattar font des progrès vers la commission de cet écart – aussi minuscule que ses réseaux, ils peuvent prédire le comportement plus précisément que les modèles psychologiques traditionnels. Il en va de même pour la recherche sur l’interprétabilité de la LLM qui se produit dans des endroits comme anthropic. Pour l’instant, cependant, notre compréhension des systèmes complexes – des humains aux systèmes climatiques aux protéines – est à la traîne de plus en plus derrière notre capacité à faire des prédictions à leur sujet.

Cette histoire est apparue à l’origine dans l’algorithme, notre newsletter hebdomadaire sur l’IA. Pour obtenir des histoires comme celle-ci dans votre boîte de réception en premier, Inscrivez-vous ici.



Source link

Related post