Ce que vous avez peut-être manqué à propos de GPT-5

 Ce que vous avez peut-être manqué à propos de GPT-5


Avec lancement De GPT-5, Openai a commencé à dire explicitement aux gens d’utiliser ses modèles pour des conseils de santé. Lors de l’événement de lancement, Altman a accueilli sur scène Felipe Millon, un employé d’Openai, et son épouse, Carolina Millon, qui avait récemment reçu un diagnostic de plusieurs formes de cancer. Carolina a parlé de demander à Chatgpt de l’aide avec ses diagnostics, disant qu’elle avait téléchargé des copies de ses résultats de biopsie pour Chatgpt pour traduire le jargon médical et a demandé à l’IA de l’aide à prendre des décisions concernant des choses comme si non ou non poursuivre la radiation. Le trio l’a qualifié d’exemple stimulant de rétrécir l’écart de connaissances entre les médecins et les patients.

Avec ce changement d’approche, Openai patauge dans des eaux dangereuses.

D’une part, il s’agit de preuves que les médecins peuvent bénéficier de l’IA en tant qu’outil clinique, comme dans l’étude du Kenya, pour suggérer que les personnes sans expérience médicale devraient demander des conseils sur leur propre santé. Le problème est que beaucoup de gens pourraient demander ces conseils sans jamais le gérer par un médecin (et sont moins susceptibles de le faire maintenant que le chatbot les incite rarement).

En effet, deux jours avant le lancement de GPT-5, le Annales de médecine interne publié Un article sur un homme qui a cessé de manger du sel et a commencé à ingérer des quantités dangereuses de bromure après une conversation avec Chatgpt. Il a développé un empoisonnement au bromure – qui a largement disparu aux États-Unis après que la Food and Drug Administration a commencé à freiner l’utilisation du bromure dans les médicaments en vente libre dans les années 1970 – puis a failli mourir, passant des semaines à l’hôpital.

Alors, quel est l’intérêt de tout cela? Essentiellement, il s’agit de responsabilité. Lorsque les entreprises d’IA passent de l’intelligence générale prometteuse à l’offre de l’aide humaine dans un domaine spécifique comme les soins de santé, il soulève une deuxième question sans réponse sur ce qui se passera lorsque des erreurs seront commises. Dans l’état actuel des choses, il y a peu d’indication que les entreprises technologiques seront rendues responsables des dommages causés.

«Lorsque les médecins vous donnent des conseils médicaux nocifs en raison d’une erreur ou d’un préjugé préjudiciable, vous pouvez les poursuivre pour faute professionnelle et obtenir une récompense», explique Damien Williams, professeur adjoint de science et de philosophie des données à l’Université de Caroline du Nord Charlotte.

« Lorsque Chatgpt vous donne des conseils médicaux nocifs car il a été formé sur des données préjudiciables, ou parce que les« hallucinations »sont inhérentes aux opérations du système, quel est votre recours?»

Cette histoire est apparue à l’origine dans l’algorithme, notre newsletter hebdomadaire sur l’IA. Pour obtenir des histoires comme celle-ci dans votre boîte de réception en premier, Inscrivez-vous ici.



Source link

Related post