Openai admet Chatgpt Signes manqués de délires dans les utilisateurs aux prises avec la santé mentale

 Openai admet Chatgpt Signes manqués de délires dans les utilisateurs aux prises avec la santé mentale


Après plus d’un mois de fourniture Réponse de copie Au milieu des rapports de montage de « Psychose d’IA« , Openai a finalement admis que Chatgpt ne reconnaissait pas des signes clairs de ses utilisateurs aux prises avec leur santé mentale, y compris des délires souffrant.

« Nous n’obtenons pas toujours les choses correctement », a écrit le fabricant d’IA dans un Nouveau article de blogsous une section intitulée «Sur une utilisation saine».

« Il y a eu des cas où notre modèle 4O n’a pas réussi à reconnaître les signes d’illusion ou de dépendance émotionnelle », a-t-il ajouté. « Bien que rares, nous continuons d’améliorer nos modèles et développent des outils pour mieux détecter des signes de détresse mentale ou émotionnelle afin que le chat de chat peut répondre de manière appropriée et indiquer aux gens des ressources fondées sur des preuves en cas de besoin. »

Bien qu’il ait précédemment reconnu la question, Openai a été sensiblement réticent au milieu de rapports généralisés à propos de ses chatbot comportement sycophantique Les utilisateurs conduisent des pauses avec la réalité ou découvrent des épisodes maniaques.

Le peu qu’il a partagé provient principalement d’une seule déclaration que c’est envoyé à plusieurs reprises aux médias, Indépendamment des détails – que ce soit un homme Mourir de suicide par COP Après être tombé amoureux d’un personnage de Chatgpt, ou d’autres hospitalisé involontairement ou emprisonné Après avoir été fasciné par l’IA.

« Nous savons que Chatgpt peut se sentir plus réactif et personnel que les technologies antérieures, en particulier pour les individus vulnérables, ce qui signifie que les enjeux sont plus élevés », indique la déclaration. « Nous travaillons à comprendre et à réduire les moyens que le chatte pourrait renforcer ou amplifier involontairement un comportement négatif existant. »

En réponse à nos rapports précédents, Openai a également partagé qu’il avait embauché un psychiatre clinique à plein temps Pour aider à rechercher les effets sur la santé mentale de son chatbot.

Cela va maintenant plus loin de ces mesures. Dans cette dernière mise à jour, Openai a déclaré qu’il convoquait un groupe consultatif d’experts en santé mentale et en développement des jeunes pour améliorer la réaction du chatpt pendant les «moments critiques».

En termes de mises à jour réelles du chatbot, les progrès, semble-t-il, sont incrémentiels. Openai a déclaré avoir ajouté une nouvelle fonctionnalité de sécurité dans laquelle les utilisateurs recevront désormais des « rappels doux » les encourageant à faire des pauses lors de longues conversations – une intervention minimale superficielle et net qui semble être forcément à devenir l’équivalent de l’industrie d’une note de bas de page « de jeu responsable » dans les publicités de paris.

Il a également taquiné que « un nouveau comportement pour les décisions personnelles à enjeux élevés » arrivera bientôt, concédant que le bot ne devrait pas donner une réponse directe à des questions comme « Dois-je rompre avec mon petit ami? »

Le blog se termine par une déclaration de hausse des sourcils.

« Nous nous tenons à un test: si quelqu’un que nous aimons se tournait vers le chatpt pour soutenir, se sentirions-nous rassuré? » Le blog lit. « Aller à un« oui »sans équivoque est notre travail. »

Le choix des mots en dit long: il semble que, selon l’admission de l’entreprise, il y arrive toujours.

Plus sur Openai: Il ne faut pas beaucoup de conversation pour que Chatgpt suce les utilisateurs dans des trous de lapin bizarres



Source link

Related post