Les gens demandent des conseils sur les relations et cela se termine par une catastrophe

 Les gens demandent des conseils sur les relations et cela se termine par une catastrophe


Malgré les chatpt Problèmes bien documentésles gens l’utilisent pour les conseiller sur les problèmes de relation – et cela se passe aussi bien que vous vous y attendez.

Dans un nouvel éditorial, Vice Le chroniqueur des conseils Sammi Caramela a dit qu’elle n’avait pas été conscient du Chatppt-as-thérapeute Tendance jusqu’à ce que quelqu’un rédige son e-mail de travail à ce sujet plus tôt cette année.

En février, un homme sans nom a dit à l’écrivain que sa petite amie refusé d’arrêter d’utiliser le chatbot pour des conseils de rencontres et évoquerait même des choses qu’elle lui avait dit dans des arguments. Bien que Caramela ait été tellement choquée qu’elle a « presque étouffé » sur son café, la demandeur de conseils n’était pas si perturbée – et a affirmé qu’il avait trouvé le chatpt de sa petite amie fascinant.

« J’étais un peu terrassé par cette confession. Je ne savais pas que les gens se tournaient vers l’IA pour obtenir des conseils, et encore moins de contribution à leurs relations », a écrit la chroniqueuse dans sa pièce plus récente. « Cependant, plus j’ai exploré le sujet, plus je réalisais à quel point il était courant de demander l’aide de l’IA – en particulier à une époque où la thérapie est un luxe cher. »

Intriguée, Caramela a trouvé un ami qui a utilisé le chatbot Openai à des fins similaires, exécutant des problèmes de relation par elle comme une caisse de son « non biaisée ». Finalement, cette personne s’est rendu compte que le Chatgpt n’était pas du tout impartial, mais « semblait plutôt valider fortement son expérience, peut-être dangereusement. »

Des questions similaires ont été posées sur le R / Chatgpt Subdredditet comme Caramela l’a expliqué, le consensus là-bas a suggéré non seulement que le chatbot est quelque chose d’un « oui », mais aussi que sa propension à être d’accord avec les utilisateurs peut être dangereuse pour les personnes qui ont des problèmes de santé mentale.

« J’écris souvent et ouvertement sur mes difficultés avec le trouble obsessionnel-compulsif (TOC) », a divulgué l’écrivain. « Si je suis allé à Chatgpt pour avoir des conseils avec des conseils et n’a pas mentionné comment mon TOC a tendance à attaquer mes relations, je pourrais recevoir une contribution inutile, voire nocive, sur ma relation. »

Digger plus profondément dans le monde de la thérapie par Chatgpt, Caramela a trouvé plusieurs fils sur les sous-verdus liés au TOC sur le chatbot – et sur le forum dédié à ROCD, ou TOC axé sur la relation, quelqu’un a même admis que le Chatbot leur a dit de rompre avec leur partenaire.

« Des programmes comme Chatgpt accélèrent uniquement le cycle OCD parce que vous pouvez poser une question après la question pendant des heures à essayer d’avoir un certain sentiment de certitude », a répondu un autre utilisateur dans le fil R / ROCD. « Il y a toujours une autre question » What If « avec le TOC. »

Comme tant de professionnels humains mal formésles chatbots ne sont pas équipés pour gérer la nuance et la sensibilité nécessaires dans tout contexte thérapeutique. Indépendamment de ce que Openai prétend dans son marketing, Chatgpt ne peut pas être vraiment empathique – et si votre « thérapeute » ne pourra jamais avoir de connexion humaine à humaine, pourquoi voudriez-vous que cela vous donne des conseils de rencontres en premier lieu?

Plus sur Chatbot Blues: Hanky ​​Panky avec une IA coquine compte toujours comme une tricherie, dit le thérapeute



Source link

Related post