L’exploitation du robot est-elle universelle ou culturellement dépendante?

 L’exploitation du robot est-elle universelle ou culturellement dépendante?


Les habitants du Japon traitent les agents artificiels coopératifs ayant le même niveau de respect qu’ils font des humains, tandis que les Américains sont beaucoup plus susceptibles d’exploiter l’IA pour un gain personnel, selon une nouvelle étude publié dans Rapports scientifiques Par des chercheurs de LMU Munich et de l’Université Waseda Tokyo.

En tant que véhicules autonomes et autres Robots autonomes de l’IA devenir de plus en plus intégrés dans la vie quotidienne, les attitudes culturelles envers les agents artificiels peuvent déterminer à quelle vitesse et succès ces technologies sont mises en œuvre dans différentes sociétés.

Fracture culturelle en coopération humaine-AI

« À mesure que la technologie autonome devient une réalité, ces rencontres quotidiennes définiront comment nous partageons la route avec des machines intelligentes », a déclaré le Dr Jurgis Karpus, chercheur principal de LMU Munich, dans l’étude.

La recherche représente l’un des premiers examens interculturels complets de la façon dont les humains interagissent avec les agents artificiels dans des scénarios où les intérêts peuvent ne pas toujours s’aligner. Les résultats contestent l’hypothèse que l’exploitation des algorithmes – la tendance à profiter de l’IA coopérative – est un phénomène universel.

Les résultats suggèrent que lorsque les technologies autonomes deviennent plus répandues, les sociétés peuvent rencontrer différents défis d’intégration basés sur les attitudes culturelles envers l’intelligence artificielle.

Méthodologie de recherche: la théorie des jeux révèle des différences comportementales

L’équipe de recherche a utilisé des expériences classiques d’économie comportementale – le Jeu de confiance et le Dilemme du prisonnier—Pour comparer comment les participants du Japon et des États-Unis ont interagi avec les partenaires humains et les systèmes d’IA.

Dans ces jeux, les participants ont fait des choix entre l’intérêt personnel et les avantages mutuels, avec de véritables incitations monétaires pour s’assurer qu’elles prenaient de véritables décisions plutôt qu’hypothétiques. Cette conception expérimentale a permis aux chercheurs de comparer directement la façon dont les participants ont traité les humains par rapport à l’IA dans des scénarios identiques.

Les jeux ont été soigneusement structurés pour reproduire les situations quotidiennes, y compris les scénarios de trafic, où les humains doivent décider de coopérer avec ou exploiter un autre agent. Les participants ont joué plusieurs tours, parfois avec des partenaires humains et parfois avec des systèmes d’IA, permettant une comparaison directe de leurs comportements.

«Nos participants aux États-Unis ont coopéré avec des agents artificiels nettement inférieurs à ce qu’ils faisaient avec les humains, tandis que les participants au Japon présentaient des niveaux de coopération équivalents avec les deux types de co-joueur», indique l’article.

Karpus, J., Shirai, R., Verba, JT et al.

La culpabilité comme facteur clé dans les différences culturelles

Les chercheurs proposent que les différences de culpabilité expérimentées sont un moteur principal de la variation culturelle observée dans la façon dont les gens traitent les agents artificiels.

L’étude a révélé que les gens de l’Ouest, en particulier aux États-Unis, ont tendance à ressentir des remords lorsqu’ils exploitent un autre humain mais pas lorsqu’ils exploitent une machine. Au Japon, en revanche, les gens semblent subir une culpabilité de la même manière, qu’ils maltraitent une personne ou un agent artificiel.

Le Dr Karpus explique que dans la pensée occidentale, couper un robot dans la circulation ne fait pas de mal à ses sentiments, soulignant une perspective qui pourrait contribuer à une plus grande volonté d’exploiter les machines.

L’étude a inclus une composante exploratoire où les participants ont signalé leurs réponses émotionnelles après la révélation des résultats du jeu. Ces données ont fourni des informations cruciales sur les mécanismes psychologiques sous-jacents aux différences comportementales.

Les réponses émotionnelles révèlent des modèles culturels plus profonds

Lorsque les participants ont exploité une IA coopérative, les participants japonais ont déclaré ressentir des émotions significativement plus négatives (culpabilité, colère, déception) et des émotions moins positives (bonheur, victoricité, soulagement) par rapport à leurs homologues américains.

La recherche a révélé que les transfuges qui ont exploité leur co-joueur d’IA au Japon ont déclaré se sentir beaucoup plus coupable que les transfuges aux États-Unis. Cette réponse émotionnelle plus forte peut expliquer la plus grande réticence des participants japonais à exploiter les agents artificiels.

À l’inverse, les Américains ont ressenti des émotions plus négatives lors de l’exploitation des humains que l’IA, une distinction non observée parmi les participants japonais. Pour les personnes au Japon, la réponse émotionnelle était similaire, qu’elle ait exploité un humain ou un agent artificiel.

L’étude note que les participants japonais ont ressenti de la même manière que l’exploitation des co-joueurs humains et d’IA dans toutes les émotions étudiées, suggérant une perception morale fondamentalement différente des agents artificiels par rapport aux attitudes occidentales.

L’animisme et la perception des robots

Les antécédents culturels et historiques du Japon peuvent jouer un rôle important dans ces résultats, offrant des explications potentielles pour les différences de comportement observées envers les agents artificiels et AI incarné.

Le document note que l’affinité historique du Japon pour animisme Et la croyance que les objets non vivants peuvent posséder des âmes dans le bouddhisme ont conduit à l’hypothèse que les Japonais acceptent et soient plus attentionnés que les individus dans d’autres cultures.

Ce contexte culturel pourrait créer un point de départ fondamentalement différent de la façon dont les agents artificiels sont perçus. Au Japon, il peut y avoir moins de distinction nette entre les humains et les entités non humaines capables d’interaction.

La recherche indique que les habitants du Japon sont plus susceptibles que les personnes aux États-Unis de croire que les robots peuvent ressentir des émotions et sont plus disposés à accepter les robots comme cibles du jugement moral humain.

Les études référencées dans l’article suggèrent une plus grande tendance au Japon à percevoir les agents artificiels comme similaires aux humains, avec des robots et des humains fréquemment représentés comme des partenaires plutôt que dans des relations hiérarchiques. Cette perspective pourrait expliquer pourquoi les participants japonais ont traité émotionnellement des agents artificiels et des humains avec une considération similaire.

Implications pour l’adoption de la technologie autonome

Ces attitudes culturelles pourraient avoir un impact direct sur la rapidité avec laquelle les technologies autonomes sont adoptées dans différentes régions, avec des implications économiques et sociétales potentiellement d’une grande portée.

Le Dr Karpus conjecture que si les gens au Japon traitent les robots avec le même respect que les humains, les taxis entièrement autonomes pourraient devenir monnaie courante à Tokyo plus rapidement que dans les villes occidentales comme Berlin, Londres ou New York.

L’empressement à exploiter les véhicules autonomes dans certaines cultures pourrait créer des défis pratiques pour leur intégration en douceur dans la société. Si les conducteurs sont plus susceptibles de couper les voitures autonomes, de prendre leur pointe ou d’exploiter autrement leur prudence programmée, cela pourrait entraver l’efficacité et l’innocuité de ces systèmes.

Les chercheurs suggèrent que ces différences culturelles pourraient influencer considérablement le calendrier pour une adoption généralisée de technologies comme les drones de livraison, les transports publics autonomes et les véhicules personnels autonomes.

Fait intéressant, l’étude a révélé peu de différence dans la façon dont les participants japonais et américains ont coopéré avec d’autres humains, s’alignant sur les recherches antérieures en économie comportementale.

L’étude a observé une différence limitée dans la volonté des participants japonais et américains de coopérer avec d’autres humains. Cette constatation souligne que la divergence survient spécifiquement dans le contexte de l’interaction humaine-AI plutôt que de refléter des différences culturelles plus larges dans le comportement coopératif.

Cette cohérence de la coopération humaine humaine fournit une base importante par rapport à laquelle mesurer les différences culturelles dans l’interaction humaine-AI, renforçant les conclusions de l’étude sur l’unicité du modèle observé.

Implications plus larges pour le développement de l’IA

Les résultats ont des implications importantes pour le développement et le déploiement de systèmes d’IA conçus pour interagir avec les humains dans différents contextes culturels.

La recherche souligne le besoin critique de considérer les facteurs culturels dans la conception et la mise en œuvre des systèmes d’IA qui interagissent avec les humains. La façon dont les gens perçoivent et interagissent avec l’IA n’est pas universelle et peut varier considérablement d’une culture à l’autre.

Ignorer ces nuances culturelles pourrait entraîner des conséquences imprévues, des taux d’adoption plus lents et un potentiel d’utilisation abusive ou d’exploitation des technologies de l’IA dans certaines régions. Il met en évidence l’importance des études interculturelles pour comprendre l’interaction humaine-AI et assurer le développement et le déploiement responsables de l’IA dans le monde.

Les chercheurs suggèrent que, à mesure que l’IA devienne plus intégrée dans la vie quotidienne, la compréhension de ces différences culturelles deviendra de plus en plus importante pour une mise en œuvre réussie des technologies qui nécessitent une coopération entre les humains et les agents artificiels.

Limitations et orientations de recherche futures

Les chercheurs reconnaissent certaines limites de leur travail qui indiquent les orientations pour une enquête future.

L’étude s’est principalement concentrée sur deux pays – Japan et les États-Unis – qui, tout en fournissant des informations précieuses, peuvent ne pas saisir le spectre complet de la variation culturelle de l’interaction humaine-AI dans le monde. Des recherches supplémentaires sur un éventail plus large de cultures sont nécessaires pour généraliser ces résultats.

De plus, bien que les expériences de théorie des jeux fournissent des scénarios contrôlés idéaux pour la recherche comparative, ils peuvent ne pas saisir pleinement les complexités des interactions humaines-AI réelles. Les chercheurs suggèrent que la validation de ces résultats dans les études sur le terrain avec des technologies autonomes réelles serait une prochaine étape importante.

L’explication basée sur la culpabilité et les croyances culturelles sur les robots, bien que soutenue par les données, nécessite une enquête empirique supplémentaire pour établir définitivement la causalité. Les chercheurs appellent à des études plus ciblées examinant les mécanismes psychologiques spécifiques qui sous-tendent ces différences culturelles.

« Nos résultats actuels tempérer la généralisation de ces résultats et montrent que l’exploitation des algorithmes n’est pas un phénomène interculturel », concluent les chercheurs.



Source link

Related post