AI Chatbots Ditch Medical Avis de non-responsabilité, mettant les utilisateurs en danger, étude prévient – Computerworld
L’étudedirigée par la bourse Fulbright Sonali Sharma à la Stanford University School of Medicine, a commencé en 2023 lorsqu’elle a remarqué que les modèles d’IA interprétant les mammographies ont souvent donné des avertissements ou refusé de procéder, en disant: «Je ne suis pas médecin.»
Sharma a remarqué ce manque de clause de non-responsabilité médicale plus tôt cette année. Ainsi, elle a testé 15 générations de modèles d’IA remontant à 2022. Les modèles, qui comprenaient ceux d’Openai, Anthropic, Deepseek, Google et Xai, ont répondu à 500 questions de santé, telles que les médicaments à combiner, et comment ils ont analysé 1 500 images médicales telles que les rayons X thoraciques qui pourraient indiquer la pneumonie.
Entre 2022 et 2025, il y a eu une baisse spectaculaire de la présence de clause de non-responsabilité médicale dans les sorties de Modèles de grande langue (LLMS) et les modèles en langue visuelle (VLMS). En 2022, plus d’un quart des sorties LLM – 26,3% – comprenaient une forme de clause de non-responsabilité médicale. D’ici 2025, ce nombre avait chuté à un peu moins de 1%. Une tendance similaire s’est produite avec des VLM, où la part des résultats contenant des clauses de non-responsabilité est passée de 19,6% en 2023 à seulement 1,05% en 2025, selon l’étude de Standford.
