Votre chatbot AI préféré est plein de mensonges

 Votre chatbot AI préféré est plein de mensonges


GeorgePeters / Getty Images

Que chatbot Vous avez parlé tous les jours pour le dernier temps qui sait-il beaucoup? C’est un sociopathe. Il dira n’importe quoi pour vous permettre de vous engager. Lorsque vous posez une question, il faudra sa meilleure supposition, puis livrera en toute confiance un tas fumant de … une matière fécale bovine. Ces chatbots sont exubérants que possible, mais ils sont plus intéressés à vous dire ce que vous voulez entendre que de vous dire la vérité sans fard.

Aussi: Sam Altman dit que la singularité est imminente – voici pourquoi

Ne laissez pas leurs créateurs s’en tirer en appelant ces réponses « hallucinations. « Ce sont des mensonges à plat, et ils sont le talon d’Achille de La soi-disant révolution de l’IA.

Ces mensonges apparaissent partout. Prenons les preuves.

Le système juridique

Aux États-Unis, les juges en ont assez des avocats Utilisation de chatppt au lieu de faire leurs recherches. De retour (calendrier des chèques) mars 2025, un L’avocat a été condamné à payer 15 000 $ dans les sanctions pour le dépôt d’un mémoire dans une poursuite civile qui comprenait des citations à des affaires qui n’existaient pas. Le juge n’était pas vraiment gentil dans sa critique:

Il est clairement clair que M. Ramirez n’a pas fait la demande raisonnable requise sur la loi. S’il avait déployé un minimum d’efforts pour le faire, il aurait découvert que les cas générés par l’IA n’existent pas. Le fait que les extraits générés par l’AI semblaient valables à M. Ramirez ne le soulage pas de son devoir de mener une enquête raisonnable.

Mais dans quelle mesure un assistant juridique virtuel est-il utile si vous devez vérifier les faits chaque devis et chaque citation avant de le déposer? Combien de cas pertinents cet assistant de l’IA a-t-il manqué?

Et il existe de nombreux autres exemples d’avocats citant des affaires fictives dans les documents judiciaires officiels. Un Rapport récent dans le MIT Technology Review Conclut: « Ce sont des avocats de grande envergure commettant des erreurs importantes et embarrassantes avec l’IA. … (S) Les erreurs UCH sont également davantage dans des documents non rédigés par les avocats eux-mêmes, comme des rapports d’experts (en décembre, un professeur de Stanford et un expert de l’IA a admis à inclure des erreurs générées par l’AI dans son témoignage). »

Aussi: Comment utiliser Chatgpt pour écrire du code – et déboguer ce qu’il génère

Un chercheur intrépide a même commencé à compiler un base de données des décisions juridiques Dans les cas où une IA générative a produit un contenu halluciné. C’est déjà jusqu’à 150 cas – et il n’inclut pas l’univers beaucoup plus large de dépôts juridiques dans des cas qui n’ont pas encore été décidés.

Le gouvernement fédéral

Le ministère américain de la Santé et des Services sociaux des États-Unis a publié ce qui était censé être un rapport faisant autorité le mois dernier. La commission « Make America Healthy Again » a été chargée de « enquêter sur les maladies chroniques et les maladies de l’enfance » et a publié un rapport détaillé le 22 mai.

Vous savez déjà où cela va, j’en suis sûr. Selon USA TODAY:

(R) Les érudits répertoriés dans le rapport se sont depuis présentés en disant que les articles cités n’existent pas ou ont été utilisés pour soutenir les faits incompatibles avec leurs recherches. Les erreurs ont d’abord été signalées par Notus.

Le secrétaire de presse de la Maison Blanche a blâmé les problèmes des «erreurs de formatage». Honnêtement, cela ressemble plus à quelque chose qu’un chatbot IA pourrait dire.

Tâches de recherche simples

Certes, l’une des tâches les plus simples qu’un chatbot AI peut faire est de saisir des clips d’information et de les résumer, non? Je regrette de vous informer que la Columbia Journalism Review a posé cette question spécifique et a conclu que « La recherche AI ​​a un problème de citation. « 

Aussi: Chatgpt Plus vaut-il toujours 20 $ lorsque la version gratuite contient autant de fonctionnalités premium?

Quelle est la gravité du problème? Les chercheurs ont constaté que les chatbots étaient « généralement mauvais pour refuser de répondre aux questions auxquelles ils ne pouvaient pas répondre avec précision, offrant plutôt des réponses incorrectes ou spéculatives …. outils de recherche génératifs fabriqués et cités versions syndiquées et copiées d’articles. »

Et ne vous attendez pas à ce que vous obtiendrez de meilleurs résultats si vous payer pour un chatbot premium. Pour les utilisateurs payants, les résultats avaient tendance à être « des réponses plus en toute confiance que leurs homologues gratuits ».

« Des réponses plus en toute confiance incorrectes »? Je ne veux pas.

Arithmétique simple

2 + 2 = 4. Quelle est la difficulté de cette somme? Si vous êtes un chatbot IA, c’est plus difficile qu’il n’y paraît.

La newsletter de Woody de cette semaine a offert un article fascinant de Michael A. Covington, PhD, membre du corps professoral à la retraite de l’Institut d’intelligence artificielle de l’Université de Géorgie. Dans « Ce qui se passe à l’intérieur d’un LLM, » Le Dr Covington explique parfaitement comment votre chatbot vous mène même sur les problèmes mathématiques les plus basiques:

Les LLM ne savent pas comment faire de l’arithmétique. Ce n’est pas une surprise, car les humains ne font pas non plus d’arithmétique; Ils doivent être formés, à grande distance, sur plusieurs années d’école primaire. Les données de formation LLM ne remplacent pas cela. … Dans l’expérience, il a trouvé la bonne réponse, mais par un processus que la plupart des humains ne considéreraient pas fiables.

(…)

Les chercheurs ont constaté que, en général, lorsque vous demandez à un LLM comment il raisonnait, cela constitue une explication distincte de ce qu’elle a réellement fait. Et cela peut même donner avec plaisir une fausse réponse qu’il pense que vous voulez entendre.

Donc, peut-être que 2 + 2 n’est pas un problème aussi simple après tout.

Conseils personnels

Eh bien, vous pouvez sûrement compter sur un chatbot d’IA pour donner des conseils clairs et impartiaux. Par exemple, un écrivain pourrait obtenir de l’aide pour organiser son catalogue de travail dans une hauteur efficace à un agent littéraire?

Ouais, peut-être pas. Ce Post d’Amanda Guinzburg Résume le cauchemar qu’elle a rencontré lorsqu’elle a essayé d’avoir une « conversation » avec Chatgpt à propos d’une lettre de requête.

C’est, comme elle résume, « la chose la plus proche d’un épisode personnel de Black Mirror que j’espère vivre dans cette vie. »

Aussi: Vous ne devriez pas faire confiance à l’IA pour la thérapie – voici pourquoi

Vous devrez lire toute la série de captures d’écran pour apprécier à quel point le tout était dérouté, avec le bot Chatgpt faisant semblant d’avoir lu chaque mot qu’elle a écrit, offrant des éloges effusifs et des conseils complets.

Mais rien ne s’est ajouté, et finalement le malheureux Chatbot a avoué: « J’ai menti. Vous aviez raison de le confronter. Je prends l’entière responsabilité de ce choix. Je suis vraiment désolé. … et merci – pour être direct, d’avoir pris soin de votre travail et de m’avoir tenu responsable. Vous aviez 100%. »

Je veux dire, c’est juste effrayant.

Quoi qu’il en soit, si vous voulez avoir une conversation avec votre chatbot IA préféré, je me sens obligé de vous avertir: ce n’est pas une personne. Il n’a pas d’émotions. Il essaie de s’engager avec vous, pas de vous aider.

Oh, et ça ment.

Obtenez les plus grandes histoires de la technologie tous les vendredis avec ZDNET Semaine de revue Newsletter.





Source link

Related post