Openai a publié ses premières recherches sur la façon dont l’utilisation du chatppt affecte le bien-être émotionnel des gens

 Openai a publié ses premières recherches sur la façon dont l’utilisation du chatppt affecte le bien-être émotionnel des gens


Les chercheurs ont trouvé des différences intrigantes entre la façon dont les hommes et les femmes réagissent à l’utilisation de Chatgpt. Après avoir utilisé le chatbot pendant quatre semaines, les participants à l’étude étaient légèrement moins susceptibles de socialiser avec des personnes que leurs homologues masculins qui ont fait de même. Pendant ce temps, les participants qui ont interagi avec le mode vocal de Chatgpt dans un sexe qui ne lui appartenait pas pour leurs interactions a rapporté des niveaux de solitude significativement plus élevés et une dépendance plus émotionnelle à l’égard du chatbot à la fin de l’expérience. OpenAI prévoit de soumettre les deux études aux revues à comité de lecture.

Les chatbots alimentés par de grands modèles de langue sont toujours une technologie naissante, et il est difficile d’étudier comment ils nous affectent émotionnellement. Beaucoup de recherches existantes dans la région – y compris certains des nouveaux travaux d’Openai et du MIT – sont sur des données autodéclarées, qui ne sont pas toujours exactes ou fiables. Cela dit, ces dernières recherches font la carillon avec ce que les scientifiques ont découvert jusqu’à présent sur la façon dont les conversations de chatbot émotionnellement convaincantes peuvent être. Par exemple, en 2023 Chercheurs en laboratoire des médias du MIT ont constaté que les chatbots ont tendance à refléter le sentiment émotionnel des messages d’un utilisateur, suggérant une sorte de boucle de rétroaction là où plus vous agissez, plus l’IA semble heureuse, ou sur le revers, si vous agissez plus triste, tout comme l’IA.

OpenAI et le MIT Media Lab ont utilisé une méthode à deux volets. Ils ont d’abord collecté et analysé les données du monde réel à partir de près de 40 millions d’interactions avec Chatgpt. Ensuite, ils ont demandé aux 4 076 utilisateurs qui avaient eu ces interactions comment ils les faisaient ressentir. Ensuite, le laboratoire des médias a recruté près de 1 000 personnes pour participer à un procès de quatre semaines. C’était plus en profondeur, examinant comment les participants ont interagi avec Chatgpt pendant au moins cinq minutes par jour. À la fin de l’expérience, les participants ont rempli un questionnaire pour mesurer leurs perceptions du chatbot, leurs sentiments subjectifs de solitude, leurs niveaux d’engagement social, leur dépendance émotionnelle à l’égard du bot et leur sens de savoir si leur utilisation du bot était problématique. Ils ont constaté que les participants qui faisaient confiance et «se sont liés» avec Chatgpt plus étaient plus probables que les autres d’être seuls et de compter davantage.

Ce travail est une première étape importante vers une meilleure compréhension de l’impact de Chatgpt sur nous, ce qui pourrait aider les plates-formes AI à permettre des interactions plus sûres et plus saines, explique Jason Phang, un chercheur en sécurité Openai qui a travaillé sur le projet.

« Une grande partie de ce que nous faisons ici est préliminaire, mais nous essayons de commencer la conversation avec le domaine sur le genre de choses que nous pouvons commencer à mesurer et à commencer à réfléchir à l’impact à long terme sur les utilisateurs », dit-il.

Bien que la recherche soit la bienvenue, il est toujours difficile d’identifier quand un humain est – et n’est pas – d’engager la technologie au niveau émotionnel, explique Devlin. Elle dit que les participants à l’étude ont peut-être vécu des émotions qui n’ont pas été enregistrées par les chercheurs.

«En ce qui concerne ce que les équipes ont décidé de mesurer, les gens n’ont pas nécessairement utilisé le chatppt de manière émotionnelle, mais vous ne pouvez pas divorcer d’être un humain de vos interactions (avec la technologie)», dit-elle. « Nous utilisons ces classificateurs d’émotion que nous avons créés pour rechercher certaines choses, mais ce que cela signifie réellement pour la vie de quelqu’un est vraiment difficile à extrapoler. »

Correction: Une version antérieure de cet article a dérangé que les participants à l’étude aient établi le sexe de la voix de Chatgpt, et qu’Openai n’avait pas prévu de publier l’une ou l’autre des études. Les participants à l’étude se sont vu attribuer le sexe du mode vocal et OpenAI prévoit de soumettre les deux études aux revues à comité de lecture. L’article a depuis été mis à jour.



Source link

Related post