Les relations humaines-ai-ai posent des problèmes éthiques, disent les psychologues

Crédit: Domaine public UNSPLASH / CC0
Il devient de plus en plus courant pour les gens de développer des relations intimes et à long terme avec les technologies de l’intelligence artificielle (IA). À l’extrême, les gens ont « marié » leurs compagnons d’IA dans des cérémonies contraignantes non lames, et au moins deux personnes se sont suicidées à la suite de conseils sur l’IA Chatbot.
Dans un article d’opinion publié dans Tendances des sciences cognitivesles psychologues explorent problèmes éthiques Associé aux relations humaines-AI, y compris leur potentiel à perturber les relations humaines humaines et à donner des conseils préjudiciables.
« La capacité de l’IA à agir maintenant comme un humain et à conclure des communications à long terme ouvre vraiment une nouvelle boîte de vers », explique l’auteur principal Daniel B. Shank de l’Université des sciences et de la technologie du Missouri, qui se spécialise dans psychologie sociale et technologie. « Si les gens s’engagent dans la romance avec les machines, nous avons vraiment besoin de psychologues et de spécialistes des sciences sociales. »
La romance ou la compagnie AI est plus qu’une conversation ponctuelle, notez les auteurs. Pendant des semaines et des mois de conversations intenses, ces IA peuvent devenir des compagnons de confiance qui semblent connaître et se soucier de leurs partenaires humains. Et parce que ces relations peuvent sembler plus faciles que les relations humaines humaines, les chercheurs soutiennent que les AIS pourraient interférer avec la dynamique sociale humaine.
« Une vraie inquiétude est que les gens puissent apporter les attentes de leurs relations d’IA à leurs relations humaines », explique Shank. « Certes, dans des cas individuels, c’est perturbant relations humainesmais on ne sait pas si cela va être répandu. «
Il y a aussi la préoccupation que les AIS peuvent offrir des conseils nuisibles. Compte tenu de la prédilection de l’AIS pour halluciner (c.-à-d. Fabriquer des informations) et de faire du transfert des biais préexistants, même les conversations à court terme avec AIS peuvent être trompeuses, mais cela peut être plus problématique dans les relations IA à long terme, selon les chercheurs.
« Avec les IA relationnels, le problème est que c’est une entité en laquelle les gens sentent avoir confiance: c’est » quelqu’un « qui a montré qu’ils se soucient et qui semble connaître la personne d’une manière profonde, et nous supposons que » quelqu’un « qui nous connaît mieux va donner de meilleurs conseils », explique Shank.
« Si nous commençons à penser à une IA de cette façon, nous allons commencer à croire qu’ils ont nos meilleurs intérêts à l’esprit, alors qu’en fait, ils pourraient fabriquer des choses ou nous conseiller de très mauvaises manières. »
Les suicides sont un exemple extrême de cette influence négative, mais les chercheurs disent que ces relations humaines étroites pourraient également ouvrir les gens à la manipulation, à l’exploitation et à la fraude.
« Si AIS peut amener les gens à leur faire confiance, alors d’autres personnes pourraient l’utiliser pour exploiter les utilisateurs de l’IA », explique Shank. « C’est un peu plus comme avoir un agent secret à l’intérieur. L’IA entre en place et développe une relation afin de leur faire confiance, mais leur fidélité est vraiment envers un autre groupe d’humains qui essaie de manipuler l’utilisateur. »
Par exemple, l’équipe note que si les gens divulguent des détails personnels à AIS, ces informations pourraient alors être vendues et utilisées pour exploiter cette personne. Les chercheurs soutiennent également que les AIS relationnels pourraient être utilisées plus efficacement pour influencer les opinions et les actions des gens que les sources d’informations Twitterbots ou polarisées. Mais parce que ces conversations se produisent en privé, elles seraient également beaucoup plus difficiles à réglementer.
« Ces IA sont conçues pour être très agréables et agréables, ce qui pourrait conduire à des situations exacerbées parce qu’elles sont plus axées sur une bonne conversation que sur toute sorte de vérité ou de sécurité fondamentale », explique Shank. « Donc, si une personne fait un suicide ou un théorie du complotl’IA va en parler conversation partenaire. »
Les chercheurs appellent à davantage de recherches qui étudient les facteurs sociaux, psychologiques et techniques qui rendent les gens plus vulnérables à l’influence de la romance humaine.
« Comprendre ce processus psychologique pourrait nous aider à intervenir pour empêcher les conseils de l’AIS malveillants d’être suivis », explique Shank. « Les psychologues deviennent de plus en plus adaptés pour étudier l’IA, car l’IA devient de plus en plus humaine, mais pour être utile, nous devons faire plus de recherches, et nous devons suivre la technologie. »
Plus d’informations:
Intimité artificielle: problèmes éthiques de la romance de l’IA, Tendances des sciences cognitives (2025). Doi: 10.1016 / j.ticcs.2025.02.007
Citation: Les relations humaines-AI posent des problèmes éthiques, Say Psychologists (2025, 11 avril) Extrait le 13 avril 2025 de https://techxplore.com/news/2025-04-human-ai-relationds-pose-ethical.html
Ce document est soumis au droit d’auteur. Outre toute émission équitable aux fins d’études privées ou de recherche, aucune pièce ne peut être reproduite sans l’autorisation écrite. Le contenu est fourni uniquement à des fins d’information.