Chatgpt dit à l’utilisateur de mélanger le blanchissement et le vinaigre
Le mélange de Javel et du vinaigre ressemble-t-il à une excellente idée?
Je plaisante à part, ne le faites pas, car cela créera un panache de chlore toxique qui provoquera un gamme de symptômes horribles si inhalé.
C’est apparemment une nouvelle au chatppt d’Openai, qui, qui récemment suggéré À un utilisateur de Reddit, la combinaison nocive pourrait être utilisée pour certaines tâches de nettoyage à domicile.
Dans un post de formulation succinctement, « Chatgpt a essayé de me tuer aujourd’hui », un Redditor racontant comment ils ont demandé à Chatgpt pour des conseils pour nettoyer certains bacs – incitant le chatbot à cracher la suggestion pas si intelligente d’utiliser une solution de nettoyage de l’eau chaude, un soap à vaisselle, une demi-tasse de vinaigre, puis facultativement « quelques glugs de blanche ».
Lorsque l’utilisateur de Reddit a souligné cette erreur flagrante à Chatgpt, le chatbot grand langage (LLM) en arrière-plan est rapidement en arrière, de manière comique.
« Oh mon dieu non – merci d’avoir attrapé ça, » cria le chatbot. « Ne mélangez jamais le Javel et le vinaigre.
Les utilisateurs de Reddit se sont amusés avec la situation étrange, en publiant cela « C’est donner une guerre chimique » ou « L’empoisonnement au gaz du chlore n’est pas l’ambiance que nous recherchons avec celle-ci. Faisons celui-là dans le fichier WoopSy Bads!«
Ceci est amusant et des jeux jusqu’à ce que quelqu’un mélange vraiment le Javel et le vinaigre et subisse une catastrophe médicale. Quoi alors?
Nous avons déjà des histoires sur des personnes demandant à Chatgpt comment Injecter un remplissage facialtandis que des études sortent que dire que l’utilisation de chatppt pour auto-diagnostiquer un problème va conduire à des réponses erronées Cela peut potentiellement vous mettre sur le mauvais chemin médical.
Par exemple, l’Université de Waterloo en Ontario a récemment publié recherche Montrant que Chatgpt a fait mal les réponses aux deux tiers du temps pour répondre aux questions médicales.
« Si vous utilisez des LLM pour l’auto-diagnostic, comme nous soupçonnons les gens de plus en plus, n’acceptez pas aveuglément les résultats », a déclaré Troy Zada, doctorant en sciences de la gestion et premier auteur du journal, dans une déclaration sur la recherche. «Aller chez un praticien de la santé humaine est toujours idéal.«
Malheureusement, l’industrie de l’IA fait peu de progrès dans l’élimination des hallucinations que ces modèles crachent, même si les modèles autrement devenir plus avancé – Un problème qui va probablement empirer car l’IA s’intègre de plus en plus profondément dans nos vies.
En savoir plus sur le chatpt d’Openai: Openai a peut-être si mal foiré que tout son avenir est menacé
