Plus son AI devient plus intelligent, plus il hallucine

Les modèles d’intelligence artificielle ont longtemps lutté contre les hallucinations, un terme commodément élégant que l’industrie utilise pour désigner des fabrications que les modèles de grands langues servent souvent de fait.
Et à en juger par la trajectoire des derniers modèles de « raisonnement », que Google et IA ont conçu pour « réfléchir » à travers un problème avant de répondre, le problème empire – pas mieux.
Comme le New York Times rapportsà mesure que les modèles IA deviennent plus puissants, ils deviennent également plus sujet à hallucinant, pas moins. C’est une vérité gênante car les utilisateurs continuent de affluer vers les chatbots d’IA comme le chatppt d’Openai, l’utilisant pour une gamme croissante de tâches. En faisant croire aux chatbots des affirmations douteuses, toutes ces personnes risquent de s’embarrasser ou pire.
Pire encore, les sociétés d’IA ont du mal à clouer pourquoi exactement les chatbots génèrent plus d’erreurs qu’auparavant – une lutte qui met en évidence le fait de gratter la tête que Même les créateurs de l’IA ne comprennent pas très bien comment la technologie fonctionne réellement.
La tendance troublante remet en question l’hypothèse générale de l’industrie selon laquelle les modèles d’IA deviendront plus puissants et fiables à mesure qu’ils augmentent.
Et les enjeux ne pourraient pas être plus élevés, car les entreprises continuer à verser des dizaines de milliards de dollars dans la construction d’infrastructures d’IA pour des modèles de « raisonnement » plus grands et plus puissants.
Pour certains experts, les hallucinations peuvent être inhérentes à la technologie elle-même, ce qui rend le problème pratiquement impossible à surmonter.
« Malgré nos meilleurs efforts, ils halluneront toujours », a déclaré le PDG de l’AI Startup Vectara, Amr Awadallah NYT. « Cela ne disparaîtra jamais. »
C’est un problème si répandu, il existe des entreprises entières dédiées à aider les entreprises à surmonter les hallucinations.
« Le fait de ne pas traiter correctement ces erreurs élimine essentiellement la valeur des systèmes d’IA », a déclaré Pratik Verma, cofondateur d’Okahu, une société de conseil qui aide les entreprises à mieux utiliser l’IA. NYT.
La nouvelle intervient après que les derniers modèles de raisonnement d’IA d’Openai, O3 et O4-Mini, qui ont été lancés à la fin du mois dernier, étaient trouvé pour halluciner plus que les versions antérieures.
Le modèle O4-Mini d’Openai a halluciné 48% du temps sur sa référence de précision interne, montrant qu’il était terrible de dire la vérité. Son modèle O3 a marqué un taux d’hallucination de 33%, soit à peu près double par rapport aux modèles de raisonnement précédents de l’entreprise.
En attendant, comme le NYT Souligne, les modèles d’IA concurrents de Google et Deepseek souffrent d’un sort similaire à celui des dernières offres d’Openai, indiquant que c’est un problème à l’échelle de l’industrie.
Experts avoir averti Au fur et à mesure que les modèles IA deviennent plus grands, les avantages que chaque nouveau modèle présente sur son prédécesseur pourrait considérablement diminuer. Avec les entreprises rapidement Sans des données d’entraînementils se tournent vers des données synthétiques – ou générées par l’AI pour former des modèles, qui pourrait avoir des conséquences désastreuses.
En bref, malgré leurs meilleurs efforts, les hallucinations n’ont jamais été aussi répandues – et pour le moment, la technologie ne se dirige même pas dans la bonne direction.
En savoir plus sur les hallucinations AI: « Vous ne pouvez pas lécher un blaireau deux fois »: L’IA de Google invente des explications pour les paroles folkloriques inexistantes