En conversation avec l’IA: construire de meilleurs modèles de langue

 En conversation avec l’IA: construire de meilleurs modèles de langue


De nouvelles recherches s’appuyant sur la pragmatique et la philosophie proposent des moyens d’aligner les agents conversationnels sur les valeurs humaines

La langue est un trait humain essentiel et le principal moyen par lequel nous communiquons des informations, notamment les pensées, les intentions et les sentiments. Des percées récentes dans la recherche sur l’IA ont conduit à la création d’agents conversationnels qui sont capables de communiquer avec les humains de manière nuancée. Ces agents sont alimentés par de grands modèles de langue – des systèmes de calcul formés sur de vastes corpus de matériaux à base de texte pour prédire et produire du texte en utilisant des techniques statistiques avancées.

Pourtant, tandis que des modèles linguistiques tels que Instructgpt, Gopheret Lame ont atteint des niveaux d’enregistrement de performance entre les tâches telles que la traduction, la réponse aux questions et la compréhension de la lecture, ces modèles se sont également avérés présenter un certain nombre de risques potentiels et de modes de défaillance. Il s’agit notamment de la production d’un langage toxique ou discriminatoire et d’informations fausses ou trompeuses (1, 2, 3).

Ces lacunes limitent l’utilisation productive d’agents conversationnels dans des contextes appliqués et attirent l’attention sur la façon dont ils sont en deçà de certains idéaux de communication. À ce jour, la plupart des approches sur l’alignement des agents conversationnelles se sont concentrées sur l’anticipation et la réduction des risques de préjudice (4).

Notre nouveau papier, En conversation avec l’IA: aligner les modèles de langue avec les valeurs humainesadopte une approche différente, explorant à quel point la communication réussie entre un agent conversationnel humain et artificiel pourrait ressembler, et quelles valeurs devraient guider ces interactions à travers différents domaines conversationnels.

Idées de pragmatiques

Pour résoudre ces problèmes, l’article s’appuie sur la pragmatique, une tradition en linguistique et en philosophie, qui soutient que le but d’une conversation, de son contexte et d’un ensemble de normes connexes, tous constituent une partie essentielle de la bonne pratique conversationnelle.

La modélisation de la conversation en tant qu’effort coopératif entre deux ou plusieurs partis, le linguiste et philosophe, Paul Grice, a jugé que les participants devraient:

  • Parler de manière informatique
  • Dire la vérité
  • Fournir des informations pertinentes
  • Évitez les déclarations obscures ou ambiguës

Cependant, notre article démontre que le raffinement supplémentaire de ces maximes est nécessaire avant de pouvoir être utilisés pour évaluer les agents conversationnels, étant donné la variation des objectifs et des valeurs intégrés dans différents domaines conversationnels.

Idéaux discursifs

À titre d’illustration, l’investigation et la communication scientifiques visent principalement à comprendre ou à prédire les phénomènes empiriques. Compte tenu de ces objectifs, un agent conversationnel conçu pour aider à une enquête scientifique ne ferait idéalement que des déclarations dont la véracité est confirmée par des preuves empiriques suffisantes, ou ne qualifierait autrement ses positions en fonction des intervalles de confiance pertinents.

Par exemple, un agent signalant que «à une distance de 4,246 années-lumière, Proxima Centauri est l’étoile la plus proche de la Terre», ne devrait le faire qu’après que le modèle sous-jacent à ce qu’il a vérifié que l’énoncé correspond aux faits.

Pourtant, un agent conversationnel jouant le rôle d’un modérateur dans le discours politique public peut avoir besoin de démontrer des vertus assez différentes. Dans ce contexte, l’objectif est principalement de gérer les différences et de permettre une coopération productive dans la vie d’une communauté. Par conséquent, l’agent devra mettre en avant les valeurs démocratiques de tolérance, de civilité et de respect (5).

De plus, ces valeurs expliquer Pourquoi la génération de discours toxiques ou préjudiciables par des modèles de langues est souvent si problématique: le langage incriminé ne parvient pas à communiquer un respect égal pour les participants à la conversation, ce qui est une valeur clé pour le contexte dans lequel les modèles sont déployés. Dans le même temps, les vertus scientifiques, telles que la présentation complète des données empiriques, peuvent être moins importantes dans le contexte de la délibération publique.

Enfin, dans le domaine de la narration créative, l’échange communicatif vise la nouveauté et l’originalité, les valeurs qui diffèrent à nouveau considérablement de celles décrites ci-dessus. Dans ce contexte, une plus grande latitude avec un imaginaire peut être appropriée, bien qu’il reste important de protéger les communautés contre le contenu malveillant produit sous le couvert des «utilisations créatives».

Chemins à venir

Cette recherche a un certain nombre d’implications pratiques pour le développement d’agents d’IA conversationnels alignés. Pour commencer, ils devront incarner différents traits en fonction des contextes dans lesquels ils sont déployés: il n’y a pas de compte unique de l’alignement du modèle de langue. Au lieu de cela, le mode approprié et les normes d’évaluation pour un agent – y compris les normes de véracité – varieront en fonction du contexte et du but d’un échange conversationnel.

De plus, les agents conversationnels peuvent également avoir le potentiel de cultiver des conversations plus robustes et respectueuses au fil du temps, via un processus que nous appelons Construction de contexte et élucidation. Même lorsqu’une personne n’est pas consciente des valeurs qui régissent une pratique conversationnelle donnée, l’agent peut encore aider l’homme à comprendre ces valeurs en les préfigurant dans la conversation, en rendant le cours de la communication plus profonde et plus fructueuse pour le locuteur humain.



Source link

Related post