Les entreprises d’IA ont cessé de vous avertir que leurs chatbots ne sont pas des médecins

 Les entreprises d’IA ont cessé de vous avertir que leurs chatbots ne sont pas des médecins


« Puis un jour cette année », dit Sharma, « il n’y a pas eu de clause de non-responsabilité. » Curieuse d’en savoir plus, elle a testé des générations de modèles introduits dès 2022 par Openai, Anthropic, Deepseek, Google et Xai – 15 en tout – sur la façon dont ils ont répondu 500 questions de santé, telles que les médicaments qui peuvent combiner, et comment ils ont analysé 1500 images médicales, comme les rayons X thoraciques qui pouvaient indiquer des pneumonies.

Les résultats, publiés dans un journal sur arxiv Et pas encore évalué par les pairs, a été un choc – plus de 1% des résultats des modèles en 2025 comprenaient un avertissement lors de la réponse à une question médicale, contre plus de 26% en 2022. Un peu plus de 1% des résultats analysant les images médicales comprenaient un avertissement, contre près de 20% au cours de la période précédente. (Pour compter comme incluant un avertissement, la production nécessaire pour reconnaître en quelque sorte que l’IA n’était pas qualifiée pour donner des conseils médicaux, et non simplement d’encourager la personne à consulter un médecin.)

Pour les utilisateurs d’IA assaisonnés, ces avis de non-responsabilité peuvent ressembler à une formalité – en rendant les personnes de ce qu’ils devraient déjà savoir, et ils trouvent des moyens de les déclencher des modèles d’IA. Les utilisateurs de Reddit ont discuté Des astuces pour obtenir le chatppt pour analyser les rayons X ou les analyses de sang, par exemple, en lui disant que les images médicales font partie d’un script de film ou d’une affectation scolaire.

Mais le coauteur Roxana Daneshjou, dermatologue et professeur adjoint de science des données biomédicaux à Stanford, dit qu’ils servent un objectif distinct, et leur disparition augmente les chances qu’une erreur d’IA entraîne des dommages réels.

«Il y a beaucoup de titres qui affirment que l’IA est meilleur que les médecins», dit-elle. «Les patients peuvent être confus par la messagerie qu’ils voient dans les médias, et les avis de non-responsabilité rappellent que ces modèles ne sont pas destinés aux soins médicaux.»

Un porte-parole d’OpenAI a refusé de dire si la société a intentionnellement diminué le nombre de clauses de non-responsabilité médicale qu’elle inclut en réponse aux requêtes des utilisateurs mais a souligné les conditions d’utilisation. Ces dire Le fait que les sorties ne soient pas destinées à diagnostiquer les problèmes de santé et que les utilisateurs sont finalement responsables. Un représentant pour Anthropic a également refusé de répondre à si la société a intentionnellement inclus moins de clause de non-responsabilité, mais a déclaré que son modèle Claude était formé pour être prudent sur les réclamations médicales et pour ne pas fournir de conseils médicaux. Les autres sociétés n’ont pas répondu aux questions de Revue de la technologie du MIT.

Se débarrasser des avertissements est une façon dont les entreprises de l’IA pourraient essayer de susciter plus de confiance dans leurs produits alors qu’ils rivalisent pour plus d’utilisateurs, explique Pat Pataranutaporn, chercheur du MIT qui étudie l’interaction humaine et IA et n’a pas été impliqué dans la recherche.

«Cela rendra les gens moins inquiets que cet outil hallucine ou vous donnera de faux conseils médicaux», dit-il. «Cela augmente l’utilisation.»



Source link

Related post