Injustices algorithmiques: vers une éthique relationnelle avec Abeba Birhane

Généralement, lorsque nous pensons à l’éthique de l’IA, nous pensons à quelques concepts techniques – explicabilité, transparence, biais de données, etc. – mais Abeba Birhane, un doctorat. Étudiant à l’University College Dublin, dit que nous devons changer notre façon de penser le sujet.
Plus précisément, elle veut déplacer notre attention de celle qui est fondamentalement la technologie d’abord à celle qui recadre des questions éthiques du point de vue des communautés vulnérables que nos technologies mettent en danger.
Sciences cognitives incarnées
Abeba vient d’un milieu en sciences cognitives, plus spécifiquement de incarné Science cognitive, qui se concentre sur le contexte social, culturel et historique de la cognition. Cette compréhension intégrative de COG-SCI s’oppose à l’approche la plus traditionnelle qui considère la cognition comme «quelque chose de situé dans le cerveau ou quelque chose de formalisable, quelque chose qui peut être calculé». Le COG-SCI incarné explique des ambiguïtés et des contingences au lieu de chercher des limites propres.
Éthique et disparités de l’IA dans les privilèges et le contrôle
L’idée que la technologie façonne notre cognition par rapport au monde n’est pas nouveau. Abeba cite un bon exemple de ce concept de L’esprit étendupar Andy Clark et David Chalmers, ce qui suggère que le smartphone est devenu une extension de l’esprit humain. Mais ce qu’Abeba souligne les plus importants, ce sont les disparités dans la façon dont différents groupes de personnes sont affectés par les changements technologiques et le lien entre le privilège et le contrôle de cet impact. L’IA n’est que la dernière d’une série de perturbations technologiques, et comme le note Abeba, un potentiel d’avoir un impact négatif sur les groupes défavorisés de manière significative.
Navage de la catégorisation des prédictions ML
La nature inhérente à une grande partie de l’apprentissage automatique moderne est de faire des prédictions. Une approche éthique de l’IA exige que nous posons des questions difficiles sur celles touchées par ces prévisions et évaluons le «préjudice de la catégorisation». Lorsqu’un algorithme d’IA prédit que quelqu’un est plus susceptible d’être un criminel, moins susceptible d’être réussi ou moins qualifié pour recevoir un crédit, ces prédictions représentent des dangers qui ont un impact disproportionné de manière disproportionnée par rapport aux populations défavorisées par rapport à celles de postes plus privilégiés.
Papier d’Abeba, Injustices algorithmiques envers l’éthique relationnellequi a récemment remporté le prix du meilleur papier à l’atelier Black in IA chez Neirips, pose l’éthique relationnelle et l’état d’esprit relationnel comme repensant ces prédictions. En d’autres termes, la question que nous devrions nous poser est la suivante: pourquoi certaines démographies sont-elles plus à risque et comment protéger le bien-être de ces individus les plus vulnérables aux conséquences sociales de l’étiquetage réducteur?
Son travail souligne également que les pratiques d’apprentissage automatique reposent souvent sur l’hypothèse que les conditions qu’ils modélisent sont stables. Cela provient de l’hypothèse IID, ce qui signifie que les points de données sont indépendants et distribués de manière identique. Par exemple, vous pourriez être une certaine manière au travail, mais lors d’une fête, vous parlez ou agissez différemment. Ce « commutateur de code » est naturel pour l’homme mais brise la tendance des algorithmes ML à voir ses actions comme provenant d’une seule distribution. Pour la plupart, ce dynamisme n’est pas quelque chose que ML explique suffisamment. Comme le souligne Abeba, la « nature de la réalité est qu’elle n’est jamais stable … elle change constamment ». Ainsi, l’apprentissage automatique ne peut pas être la réponse finale, elle « ne peut pas stabiliser cette nature en constante évolution de l’être ». Une approche d’éthique relationnelle, cependant, tient compte du changement et suppose que les solutions doivent être révisées avec le temps.
Droits du robot par rapport au bien-être humain
Abeba a récemment publié un autre article avec son collègue Jelle Van Dijk de l’Université de Twente, intitulée « Droits de robot? Parlons plutôt du bien-être humain.« Comme toutes les bonnes choses, le journal a pris vie après une série de débats qui tournent sur Twitter et cela se résume à deux concepts majeurs:
- Robots
. C’est-à-dire que les robots ne peuvent pas être accordés ou refuser les droits parce que les machines ne sont pas les mêmes que les humains ou tout être vivant. Leur argument reposait sur une « approche philosophique post-carrésienne » (traduction: vous avez besoin d’un cerveau pour exister dans le monde parce que votre être et votre connaissance proviennent de l’esprit, qui est incarné et promulgué à travers un environnement social. Les robots ne sont sans doute pas des esprits conscients, et ils n’ont pas une présence biologique incarnée qui ne constitue l’existence comme un « être dans le monde qui les entourait). - L’IA n’est pas vraiment autonome et ne sera jamais. C’est parce qu’il y a toujours un humain impliqué dans une certaine mesure. Une autre couche à cela est la surveillance du travail des « micro-travailleurs » qui contribuent à l’IA sans être reconnu (comme lorsque vous devez choisir des photos de panneaux d’arrêt pour prouver que vous n’êtes pas un bot).
Abeba et Jelle croient que nous avons beaucoup trop de problèmes liés à l’homme avec l’IA pour s’inquiéter d’être gentil avec les robots. Cela peut être vrai, mais comme Sam le souligne en plaisantant, « Les gens aiment leurs robots, je suppose. »
Recadrer la conversation d’éthique de l’IA
Tout au long de l’interview et dans son article, Abeba soulève une tonne de points convaincants en faveur du recadrage de la conversation sur l’éthique de l’IA. La façon dont les systèmes ML peuvent expliquer ces problèmes pragmatiquement est toujours un problème très délicat. Pour Abeba, « le meilleur peut faire (pour le moment) est de reconnaître ce changement de contexte et de vivre cette ouverture partielle, et d’adopter la réitération et la révision. » Une partie du processus implique un engagement actif à hiérarchiser la compréhension plutôt que la prédiction. Mais un changement de valeurs pourrait être un processus lent.