L’éthique des assistants avancés de l’IA

 L’éthique des assistants avancés de l’IA


Responsabilité et sécurité

Publié
Auteurs

Iason Gabriel et Arianna Manzini

Explorer la promesse et les risques d’un avenir avec une IA plus capable

Imaginez un avenir où nous interagissons régulièrement avec une gamme d’assistants avancés de l’intelligence artificielle (IA) – et où des millions d’assistants interagissent les uns avec les autres en notre nom. Ces expériences et interactions pourraient bientôt faire partie de notre réalité quotidienne.

Les modèles de fondation à usage général ouvrent la voie à des assistants de l’IA de plus en plus avancés. Capable de planifier et d’exécuter un large éventail d’actions conformément aux objectifs d’une personne, ils pourraient ajouter une valeur immense à la vie des gens et à la société, servant de partenaires créatifs, d’analystes de recherche, de tuteurs éducatifs, de planificateurs de vie et plus encore.

Ils pourraient également provoquer une nouvelle phase d’interaction humaine avec l’IA. C’est pourquoi il est si important de penser de manière proactive à ce à quoi pourrait ressembler ce monde et à diriger la prise de décision responsable et les résultats bénéfiques à l’avance.

Notre nouveau papier est le premier traitement systématique des questions éthiques et sociétales que soulèvent les assistants avancés de l’IA pour les utilisateurs, les développeurs et les sociétés dans lesquelles ils sont intégrés, et fournit de nouvelles informations importantes sur l’impact potentiel de cette technologie.

Nous couvrons des sujets tels que l’alignement de la valeur, la sécurité et la mauvaise utilisation, l’impact sur l’économie, l’environnement, la sphère d’information, l’accès et l’opportunité et plus encore.

Ceci est le résultat de l’un de nos plus grands projets de prévoyance éthique à ce jour. Rassemblant un large éventail d’experts, nous avons examiné et cartographié le nouveau paysage technique et moral d’un futur peuplé d’assistants de l’IA, et caractérisé les opportunités et les risques que la société pourrait faire face. Ici, nous décrivons certains de nos principaux plats à retenir.

Un impact profond sur les utilisateurs et la société

Illustration du potentiel pour les assistants de l’IA pour avoir un impact sur la recherche, l’éducation, les tâches créatives et la planification.

Les assistants avancés de l’IA pourraient avoir un impact profond sur les utilisateurs et la société et être intégrés dans la plupart des aspects de la vie des gens. Par exemple, les gens peuvent leur demander de réserver des vacances, de gérer le temps social ou d’effectuer d’autres tâches de vie. S’ils sont déployés à grande échelle, les assistants de l’IA pourraient avoir un impact sur la façon dont les gens abordent le travail, l’éducation, les projets créatifs, les passe-temps et l’interaction sociale.

Au fil du temps, les assistants de l’IA pourraient également influencer les objectifs que les gens poursuivent et leur chemin de développement personnel à travers les assistants de l’information et des conseils que donnent et les actions qu’ils prennent. En fin de compte, cela soulève des questions importantes sur la façon dont les gens interagissent avec cette technologie et comment il peut mieux soutenir leurs objectifs et leurs aspirations.

L’alignement humain est essentiel

Illustration montrant que les assistants de l’IA devraient être en mesure de comprendre les préférences et les valeurs humaines.

Les assistants de l’IA auront probablement un niveau d’autonomie significatif pour la planification et l’exécution de séquences de tâches dans une gamme de domaines. Pour cette raison, les assistants de l’IA présentent de nouveaux défis concernant la sécurité, l’alignement et la mauvaise utilisation.

Avec plus d’autonomie, un plus grand risque d’accidents causé par des instructions peu clairs ou mal interprétés, et un plus grand risque de prendre des actions qui sont mal alignées avec les valeurs et les intérêts de l’utilisateur.

Des assistants IA plus autonomes peuvent également permettre des formes de mauvaise utilisation à fort impact, comme la diffusion de désinformation ou s’engager dans des cyberattaques. Pour répondre à ces risques potentiels, nous soutenons que les limites doivent être fixées sur cette technologie et que les valeurs des assistants d’IA avancés doivent mieux s’aligner sur les valeurs humaines et être compatibles avec des idéaux et des normes sociétales plus larges.

Communiquer en langue naturelle

Illustration d’un assistant d’IA et d’une personne communiquant d’une manière humaine.

Capable de communiquer avec fluide en utilisant le langage naturel, la sortie écrite et les voix des assistants AI avancés peuvent devenir difficiles à distinguer de ceux de l’homme.

Ce développement ouvre un ensemble complexe de questions concernant la confiance, la vie privée, l’anthropomorphisme et les relations humaines appropriées avec l’IA: comment pouvons-nous nous assurer que les utilisateurs peuvent identifier de manière fiable les assistants de l’IA et garder le contrôle de leurs interactions avec eux? Que peut-on faire pour s’assurer que les utilisateurs ne sont pas indûment influencés ou induits en erreur au fil du temps?

Les garanties, telles que celles autour de la vie privée, doivent être mises en place pour répondre à ces risques. Surtout, les relations des personnes avec les assistants de l’IA doivent préserver l’autonomie de l’utilisateur, soutenir leur capacité à s’épanouir et à ne pas compter sur la dépendance émotionnelle ou matérielle.

Coopération et coordination pour répondre aux préférences humaines

Illustration de la façon dont les interactions entre les assistants d’IA et les personnes créeront différents effets de réseau.

Si cette technologie devient largement disponible et déployée à grande échelle, les assistants AI avancés devront interagir les uns avec les autres, avec les utilisateurs et les non-utilisateurs. Pour éviter les problèmes d’action collective, ces assistants doivent être en mesure de coopérer avec succès.

Par exemple, des milliers d’assistants pourraient essayer de réserver le même service pour leurs utilisateurs en même temps – potentiellement écraser le système. Dans un scénario idéal, ces assistants de l’IA se coordonneraient plutôt au nom des utilisateurs humains et des fournisseurs de services impliqués pour découvrir un terrain d’entente qui répond mieux aux préférences et aux besoins de différentes personnes.

Étant donné l’utilité de cette technologie, il est également important que personne ne soit exclu. Les assistants de l’IA doivent être largement accessibles et conçus avec les besoins des différents utilisateurs et non des utilisateurs.

Plus d’évaluations et de prévoyance sont nécessaires

L’illustration de la façon dont les évaluations à plusieurs niveaux sont importantes pour comprendre les assistants de l’IA.

Les assistants de l’IA pourraient afficher de nouvelles capacités et utiliser des outils de nouvelles façons qui sont difficiles à prévoir, ce qui rend difficile d’anticiper les risques associés à leur déploiement. Pour aider à gérer ces risques, nous devons nous engager dans des pratiques de prévoyance basées sur des tests et des évaluations complets.

Nos recherches précédentes sur Évaluation des risques sociaux et éthiques de l’IA générative a identifié certaines des lacunes dans les méthodes d’évaluation traditionnelles des modèles et nous encourageons beaucoup plus de recherches dans cet espace.

Par exemple, les évaluations complètes qui abordent les effets des interactions humaines-ordinateurs et les effets plus larges sur la société pourraient aider les chercheurs à comprendre comment les assistants de l’IA interagissent avec les utilisateurs, les non-utilisateurs et la société dans le cadre d’un réseau plus large. À leur tour, ces idées pourraient éclairer de meilleures atténuations et une prise de décision responsable.

Construire l’avenir que nous voulons

Nous pouvons être confrontés à une nouvelle ère de transformation technologique et sociétale inspirée du développement d’assistants d’IA avancés. Les choix que nous faisons aujourd’hui, en tant que chercheurs, développeurs, décideurs politiques et membres du public, guideront comment cette technologie se développe et est déployée dans toute la société.

Nous espérons que notre article fonctionnera comme un tremplin pour une coordination et une coopération supplémentaires pour façonner collectivement le type d’assistants bénéfiques de l’IA que nous aimerions tous voir dans le monde.

Auteurs papier: Iason Gabriel, Arianna Manzini, Geoff Keeling, Lisa Anne Hendricks, Verena Rieser, Hasan Iqbal, Nenad Tomašev, Ira Ktena, Zachary Kenton, Mikel Rodricuez, Seliem El-Sayed, Sasha Brow Shelby, Nahema Marchal, Conor Griffin, Juan Mateos-Garcia, Laura Weidinger, Winnie Street, Benjamin Lange, Alex Interman, Alison Lentz, Reed Enger, Andrew Barakat, Victoria Krakovna Lize Alberts, Borja Balle, Sarah de Haas, Yetunde Ibitoye, Allan Dafoe, Beth Goldberg, Sébastien Krier, Alexander Reese, Sims Witherspoon, Will Hawkins, Maribeth Rauh, Don Wallace, Matija Franklin, Josh A. Goldstein, Joel Lehman, Michael, Klenk, Shannon Vallor, Courtne Ringel Morris, Helen King, Blaise Agüera Y Arcas, William Isaac et James Manyika.



Source link

Related post