Agi est soudainement un sujet de table de dîner

 Agi est soudainement un sujet de table de dîner


Tout d’abord, faisons l’écart de définir AGI à l’écart. Dans la pratique, c’est un terme profondément brumeux et modifiable façonné par les chercheurs ou les entreprises qui se mettent en place à la création de la technologie. Mais cela fait généralement référence à une future IA qui surpasse les humains sur les tâches cognitives. Lequel humains et lequel Les tâches dont nous parlons font toute la différence dans l’évaluation de la réalisation, de la sécurité et de l’impact de l’AGI sur les marchés du travail, la guerre et la société. C’est pourquoi définir AGI, bien qu’une poursuite non glamour, n’est pas pédante mais en fait assez importante, comme illustré dans un nouveau papier Publié cette semaine par des auteurs de Hugging Face et Google, entre autres. En l’absence de cette définition, mon conseil lorsque vous entendez Agi est de vous demander quoi version du terme nébuleux que signifie l’orateur. (N’ayez pas peur de demander des éclaircissements!)

D’accord, aux nouvelles. Tout d’abord, un nouveau modèle d’IA de Chine appelé Manus a été lancé la semaine dernière. Un promotionnel vidéo Pour le modèle, qui est conçu pour gérer les tâches «agentiques» comme la création de sites Web ou effectuant une analyse, le décrit comme «potentiellement, un aperçu de l’AGI». Le modèle fait des tâches du monde réel sur les plates-formes de crowdsourcing comme Fiverr et Upwork, et le chef du produit de Hugging Face, une plate-forme d’IA, l’appelle «l’outil d’IA le plus impressionnant que j’ai jamais essayé».

Il n’est pas clair à quel point Manus est encore impressionnant, mais dans cette toile de fond – l’idée de l’IA agentique en tant que tremplin vers AGI – cela correspondait à cela New York Times Le chroniqueur Ezra Klein a consacré son podcast mardi à AGI. Cela signifie également que le concept a évolué rapidement au-delà des cercles d’IA et dans le domaine de la conversation sur table. Klein a été rejoint par Ben Buchanan, professeur de Georgetown et ancien conseiller spécial pour l’intelligence artificielle à la Maison Blanche de Biden.

Ils discuté Beaucoup de choses – ce qui signifierait AGI pour les forces de l’ordre et la sécurité nationale, et pourquoi le gouvernement américain trouve essentiel de développer AGI avant la Chine, mais les segments les plus controversés concernaient l’impact potentiel de la technologie sur les marchés du travail. Si l’IA est sur le point d’exceller dans de nombreuses tâches cognitives, Klein a déclaré, alors les législateurs feraient mieux de commencer à envelopper la tête de ce qu’une transition à grande échelle du travail de l’esprit humain vers les algorithmes signifiera pour les travailleurs. Il a critiqué les démocrates pour ne pas avoir de plan.

Nous pourrions considérer que cela gonfle le ballon de la peur, suggérant que l’impact d’Agi est imminent et balayant. Suivant de près et perforant ce ballon avec une épingle de sécurité géante, Gary Marcus, professeur de sciences neuronales à l’Université de New York et critique d’Agi qui a écrit un réfutation aux points soulevés sur l’émission de Klein.

Marcus souligne que les nouvelles récentes, y compris la performance décevante des Openai nouveau Chatgpt-4.5, suggère que AGI est à bien plus de trois ans. Il dit que les problèmes techniques de base persistent malgré des décennies de recherche, et les efforts pour évoluer la formation et la capacité informatique ont atteint des rendements diminués. Les modèles de grands langues, dominants aujourd’hui, ne sont peut-être même pas la chose qui déverrouille AGI. Il dit que le domaine politique n’a pas besoin plus Les personnes de l’avis de l’alarme à propos d’AGI, faisant valoir que de tels discussions profitent en fait aux entreprises qui dépensent de l’argent pour la construire plus qu’elle n’aide le public au public. Au lieu de cela, nous avons besoin de plus de personnes interrogeant les affirmations selon lesquelles AGI est imminent. Cela dit, Marcus ne doute pas que l’AGI soit possible. Il doute simplement de la chronologie.

Juste après que Marcus ait essayé de le dégonfler, le ballon Agi s’est de nouveau fait exploser. Trois personnes influentes – l’ancien PDG de Google, Eric Schmidt, le PDG de l’échelle de l’AI, Alexandr Wang, et le directeur du Center for AI Safety Dan Hendrycks – ont publié un papier appelé «stratégie de superintelligence».

Par «superintelligence», ils signifient l’IA qui «dépasserait de manière décisive les meilleurs experts individuels du monde dans presque tous les domaines intellectuels», m’a dit Hendrycks dans un e-mail. «Les tâches cognitives les plus pertinentes pour la sécurité sont le piratage, la virologie et la recherche et le développement autonomes-AI – où la dépassement de l’expertise humaine pourrait entraîner de graves risques.»



Source link

Related post