Les nouveaux repères pourraient aider à rendre les modèles AI moins biaisés

«Nous sommes en quelque sorte coincés avec des notions obsolètes de ce que signifie l’équité et le biais depuis longtemps», explique Divya Siddarth, fondatrice et directrice exécutive du Collective Intelligence Project, qui n’a pas travaillé sur les nouveaux repères. «Nous devons être conscients des différences, même si cela devient quelque peu inconfortable.»
L’œuvre de Wang et de ses collègues est un pas dans cette direction. «L’IA est utilisée dans de nombreux contextes qu’elle doit comprendre les complexités réelles de la société, et c’est ce que ce document montre», explique Miranda Bogen, directrice du laboratoire de gouvernance de l’IA au Center for Democracy and Technology, qui ne faisait pas partie de l’équipe de recherche. « Le simple fait de prendre un marteau au problème va manquer ces nuances importantes et (ne pas) répondre aux dommages qui s’inquiètent. »
Des références comme celles proposées dans le journal de Stanford pourraient aider les équipes à mieux juger l’équité dans les modèles d’IA, mais la réparation de ces modèles pourrait prendre d’autres techniques. On peut être d’investir dans des ensembles de données plus diversifiés, bien que les développer puisse être coûteux et long. «C’est vraiment fantastique pour les gens de contribuer à des ensembles de données plus intéressants et diversifiés», explique Siddarth. Les commentaires des gens disent: «Hé, je ne me sens pas représenté par cela. Ce fut une réponse vraiment étrange », comme elle le dit, peut être utilisée pour s’entraîner et améliorer les versions ultérieures des modèles.
Une autre voie passionnante à poursuivre est interprétabilité mécanisteou étudier le fonctionnement interne d’un modèle d’IA. «Les gens ont envisagé d’identifier certains neurones responsables du biais, puis de les zéro», explique Augenstein. (Les «neurones» dans ce cas sont le terme que les chercheurs utilisent pour décrire de petites parties du «cerveau» du modèle d’IA.)
Un autre camp d’informatique, cependant, estime que l’IA ne peut jamais vraiment être juste ou impartiale sans humain dans la boucle. «L’idée que la technologie peut être juste en soi est un conte de fées. Un système algorithmique ne pourra jamais, et il ne devrait pas pouvoir faire des évaluations éthiques dans les questions de «est-ce un cas souhaitable de discrimination?» », A déclaré Sandra Wachter, professeur à l’Université d’Oxford, qui ne faisait pas partie de la recherche. «La loi est un système vivant, reflétant ce que nous croyons actuellement éthique, et cela devrait évoluer avec nous.»
Décider quand un modèle devrait ou ne devrait pas tenir compte des différences entre les groupes peut rapidement devenir diviseur. Étant donné que différentes cultures ont des valeurs différentes et même contradictoires, il est difficile de savoir exactement quelles valeurs un modèle d’IA devrait refléter. Une solution proposée est «une sorte de modèle fédéré, quelque chose comme ce que nous faisons déjà pour les droits de l’homme», dit Siddarth, c’est-à-dire un système où chaque pays ou groupe a son propre modèle souverain.
La lutte contre les biais dans l’IA va être compliquée, quelle que soit l’approche que les gens adoptent. Mais donner aux chercheurs, aux éthiciens et aux développeurs un meilleur point de départ semble valable, en particulier pour Wang et ses collègues. «Les références d’équité existantes sont extrêmement utiles, mais nous ne devons pas optimiser aveuglément pour eux», dit-elle. «Le plus gros point à retenir est que nous devons aller au-delà des définitions à taille unique et réfléchir à la façon dont nous pouvons faire en sorte que ces modèles intègrent davantage le contexte.»
Correction: Une version antérieure de cette histoire a dérangé le nombre de repères décrits dans l’article. Au lieu de deux repères, les chercheurs ont suggéré huit repères dans deux catégories: descriptive et normative.