Les modèles O1 ont-ils résolu le raisonnement humain?

 Les modèles O1 ont-ils résolu le raisonnement humain?


Auteur (s): Nehdiii

Publié à l’origine sur Vers l’IA.

Image générée par Chatgpt

Openai a fait des vagues dans la communauté de l’IA avec la sortie de leurs modèles O1. Alors que l’excitation s’installe, je pense que c’est le moment idéal pour partager mes pensées sur LLMS«Les capacités de raisonnement, en particulier en tant que personne qui a dépensé une partie importante de mes recherches en explorant leurs capacités dans des tâches de raisonnement compositionnelles. Cela sert également d’occasion pour répondre aux nombreuses questions et préoccupations de «foi et sort» que j’ai reçues au cours de la dernière année, comme: faire LLMS Vraiment raison? Avons-nous atteint AGI? Peuvent-ils vraiment ne pas résoudre de simples problèmes arithmétiques?

Le buzz autour des modèles O1, nommé par code «fraise», augmente depuis août, alimenté par des rumeurs et des spéculations médiatiques. Jeudi dernier, Twitter s’est éclairé avec des employés d’OpenAI célébrant le renforcement des performances de l’O1 sur plusieurs tâches de raisonnement. Les médias ont encore alimenté l’excitation avec des titres affirmant que le «raisonnement humain» est essentiellement un problème résolu dans les LLM.

Sans aucun doute, O1 est exceptionnellement puissant et distinct de tout autre modèle. C’est une réalisation incroyable d’Openai pour publier ces modèles, et il est étonnant d’assister à un bond significatif des scores ELO sur Chatbotarena par rapport aux améliorations progressives des autres acteurs majeurs. Chatbotarena continue d’être la principale plate-forme pour… Lisez le blog complet gratuitement sur Medium.

Publié via Vers l’IA



Source link

Related post