Les chercheurs psychiatriques mettent en garde contre les risques psychologiques sombres pour les utilisateurs de l’IA

Sans même regarder les données médicales, il est assez clair que « l’intelligence artificielle » – un vaste terme parapluie pour diverses technologies au fil des ans, mais actuellement dominée par les réseaux de neurones avalés de données alimentant les chatbots et les générateurs d’images – peut avoir des effets qui changent la vie sur le cerveau humain.
Nous ne sommes même pas à trois ans de la sortie du premier LLM disponible commercialement, et les utilisateurs d’IA ont déjà été amenés à paranoïaque se brise de la réalité, manie religieuseet même le suicide. Une récente enquête auprès de plus de 1 000 adolescents a révélé que 31% Parmi eux, parler de parler à Chatgpt était aussi satisfaisant ou plus satisfaisant que de parler à leurs amis réels.
Bien que davantage de recherches soient nécessaires sur les problèmes de santé mentale provenant de l’IA, un Nouvelle enquête psychiatrique Dirigé par une équipe internationale de 12 chercheurs a émis un sombre avertissement sur la façon dont la psychose induite par l’IA pouvait devenir mauvaise.
Pour commencer, les chercheurs décrivent une poignée de « thèmes » émergents en cas de psychose de l’IA: le « mission messianique« Dans lequel une personne pense avoir découvert une vérité cachée sur le monde, le »AI semblable à Dieu« Dans lequel un utilisateur devient convaincu que son chatbot est une divinité sensible, et le » romantique « ou »illusion basée sur la pièce jointe« Ce qui se produit lorsqu’un utilisateur interprète la capacité de son LLM à imiter un partenaire conversationnel humain comme un véritable amour.
Dans les trois cas, les notes d’étude encore révisées à l’évaluation, la progression a une trajectoire similaire: la relation de l’utilisateur avec les spirales LLM « d’une utilisation pratique bénigne à une fixation pathologique et / ou consommatrice ». Les auteurs disent que ce « glissement » dans l’illusion est un point crucial pour étudier, car le risque d’une personne par ailleurs en bonne santé tombant dans la manie induite par l’IA n’est pas toujours évidente.
« Souvent, l’utilisation de l’IA commence par une assistance pour les tâches banales ou quotidiennes, ce qui renforce la confiance et la familiarité », écrivent-ils. « En temps voulu, une personne explore plus de questions personnelles, émotionnelles ou philosophiques. Il est probable à ce stade que la conception de l’IA pour maximiser l’engagement et la validation capture l’utilisateur, créant un effet de » pente glissante « … qui à son tour entraîne un plus grand engagement. »
Cet effet n’est amplifié que pour les utilisateurs à risque de développer ou de vivre déjà avec une maladie psychotique. Comme les LLM ne sont pas vraiment « artificiellement intelligents » mais algorithmes linguistiques statistiquesLes robots AI ne sont pas capables de « distinguer les invites exprimant des croyances délirantes de l’expression de rôle, artistique, spirituelle ou spéculative ».
Le document note que la psychose de l’IA n’est pas un résultat inévitable de l’interaction avec un chatbot – mais plutôt que les développeurs ont un certain contrôle suret donc la responsabilité de la sortie de leur LLM. Cependant, ils notent que «compte tenu du rythme du changement et de la trajectoire jusqu’à présent,« notre tendance à anthropomorphiser ces chatbots d’IA est «susceptible d’être inévitable».
À partir de ce moment, les chercheurs postulent, notre « responsabilité la plus urgente » devrait être de développer des garanties qui protègent le large éventail d’utilisateurs possibles – et leurs compréhensions erronées sur l’IA – « même face à l’illusion et à la simulation persistantes ».
Pour ce faire, cependant, cela signifiera finalement un pivot vif pour concevoir des systèmes autour des utilisations pratiques, par opposition à l’engagement – quelque chose grande technologie n’a jamais été particulièrement intéressé.
Plus sur l’IA: Le père dégoûté de constater que sa fille assassinée a été ramenée comme une IA