Comment les pratiques de responsabilité sont poursuivies par les ingénieurs de l’IA dans le gouvernement fédéral

 Comment les pratiques de responsabilité sont poursuivies par les ingénieurs de l’IA dans le gouvernement fédéral


Par John P. Desmond, éditeur de tendances AI

Deux expériences de la façon dont les promoteurs d’IA au sein du gouvernement fédéral poursuivent des pratiques de responsabilisation de l’IA ont été décrits au Gouvernement mondial de l’IA L’événement s’est tenu pratiquement et en personne cette semaine à Alexandrie, en Virginie.

Taka Ariga, scientifique en chef des données et directeur, US Government Accountability Office

Taka Ariga, scientifique en chef des données et directeur aux États-Unis Bureau de la responsabilité du gouvernement, Décrit un cadre de responsabilité de l’IA qu’il utilise au sein de son agence et prévoit de mettre à la disposition des autres.

Et Bryce Goodman, stratège en chef de l’IA et de l’apprentissage automatique Unité d’innovation de défense (DIU), une unité du ministère de la Défense fondée pour aider l’armée américaine à utiliser plus rapidement des technologies commerciales émergentes, a décrit le travail dans son unité pour appliquer les principes de développement de l’IA à la terminologie qu’un ingénieur peut appliquer.

Ariga, le premier scientifique en chef des données nommé au Bureau de la responsabilité du gouvernement américain et directeur du laboratoire d’innovation du GAO, a discuté d’un Cadre de responsabilité de l’IA Il a aidé à se développer en convoquant un forum d’experts dans le gouvernement, l’industrie, les organisations à but non lucratif, ainsi que les responsables généraux fédéraux et les experts de l’IA.

« Nous adoptons le point de vue d’un vérificateur sur le cadre de la responsabilité de l’IA », a déclaré Ariga. «GAO est dans le domaine de la vérification.»

L’effort pour produire un cadre formel a commencé en septembre 2020 et comprenait 60% de femmes, dont 40% étaient des minorités sous-représentées, pour discuter de deux jours. L’effort a été stimulé par le désir de fonder le cadre de la responsabilité de l’IA dans la réalité des travaux quotidiens d’un ingénieur. Le cadre qui en résulte a été publié pour la première fois en juin comme ce que Ariga a décrit comme «version 1.0».

Cherchant à ramener une «posture de haute altitude» sur terre

« Nous avons constaté que le cadre de responsabilité de l’IA avait une posture à très haute altitude », a déclaré Ariga. «Ce sont des idéaux et des aspirations louables, mais que signifient-ils pour le praticien de l’IAD quotidien? Il y a un écart, alors que nous voyons l’IA proliférer à travers le gouvernement. »

«Nous avons atterri sur une approche du cycle de vie», qui passe par des étapes de conception, de développement, de déploiement et de surveillance continue. L’effort de développement se situe sur quatre «piliers» de gouvernance, de données, de surveillance et de performance.

La gouvernance examine ce que l’organisation a mis en place pour superviser les efforts de l’IA. «L’officier en chef de l’IA pourrait être en place, mais qu’est-ce que cela signifie? La personne peut-elle apporter des modifications? Est-ce multidisciplinaire? Au niveau du système dans ce pilier, l’équipe examinera les modèles d’IA individuels pour voir s’ils étaient «délibérément délibérés».

Pour le pilier de données, son équipe examinera comment les données de formation ont été évaluées, à quel point elles sont représentatives et fonctionnent-t-elle comme prévu.

Pour le pilier de performance, l’équipe examinera «l’impact sociétal» que le système d’IA aura en déploiement, notamment si elle risque une violation de la loi sur les droits civils. «Les auditeurs ont des antécédents de longue date de l’évaluation des capitaux propres. Nous avons fondé l’évaluation de l’IA à un système éprouvé », a déclaré Ariga.

Soulignant l’importance de la surveillance continue, a-t-il dit: «L’IA n’est pas une technologie que vous déploiez et oubliez.» Il a dit. «Nous nous préparons à surveiller en permanence la dérive du modèle et la fragilité des algorithmes, et nous élargissons de manière appropriée l’IA.» Les évaluations détermineront si le système d’IA continue de répondre au besoin «ou si un coucher de soleil est plus approprié», a déclaré Ariga.

Il fait partie de la discussion avec le NIST sur un cadre global de responsabilisation de l’IA du gouvernement. « Nous ne voulons pas d’un écosystème de confusion », a déclaré Ariga. «Nous voulons une approche entièrement gouvernementale. Nous pensons qu’il s’agit d’une première étape utile pour repousser des idées de haut niveau à une altitude significative pour les praticiens de l’IA. »

DIU évalue si les projets proposés répondent aux directives d’IA éthiques

Bryce Goodman, stratège en chef de l’IA et de l’apprentissage automatique, l’unité d’innovation de défense

Au DIU, Goodman est impliqué dans un effort similaire pour élaborer des directives pour les développeurs de projets d’IA au sein du gouvernement.

Projets Goodman a été impliqué dans la mise en œuvre de l’IA pour l’assistance humanitaire et la réponse aux catastrophes, le maintien prédictif, la contre-réformation et la santé prédictive. Il dirige le groupe de travail responsable de l’IA. Il est membre du corps professoral de la Singularity University, a un large éventail de clients de consultation de l’intérieur et de l’extérieur du gouvernement et détient un doctorat en IA et en philosophie de l’Université d’Oxford.

Le DoD en février 2020 a adopté cinq zones de Principes éthiques pour l’IA Après 15 mois de consultation avec des experts de l’IA dans l’industrie commerciale, le monde universitaire et le public américain. Ces domaines sont: responsables, équitables, traçables, fiables et gouvernables.

« Ceux-ci sont bien conçus, mais il n’est pas évident pour un ingénieur comment les traduire dans une exigence de projet spécifique », a déclaré Good dans une présentation sur les directives responsables de l’IA lors de l’événement du gouvernement mondial de l’IA. « C’est l’écart que nous essayons de combler. »

Avant que le DIU ne considère même un projet, ils parcourent les principes éthiques pour voir s’il passe en train de rassembler. Tous les projets ne le font pas. « Il doit y avoir une option pour dire que la technologie n’est pas là ou que le problème n’est pas compatible avec l’IA », a-t-il déclaré.

Tous les parties prenantes du projet, y compris des vendeurs commerciaux et au sein du gouvernement, doivent être en mesure de tester et de valider et d’aller au-delà des exigences légales minimales pour répondre aux principes. « La loi ne se déplace pas aussi vite que l’IA, c’est pourquoi ces principes sont importants », a-t-il déclaré.

De plus, la collaboration se déroule à travers le gouvernement pour garantir que les valeurs soient préservées et maintenues. « Notre intention avec ces directives n’est pas d’essayer de réaliser la perfection, mais d’éviter les conséquences catastrophiques », a déclaré Goodman. «Il peut être difficile de faire en sorte qu’un groupe s’entende sur le meilleur résultat, mais il est plus facile de faire en sorte que le groupe s’entende sur le résultat le moins des cas.»

Les lignes directrices de DIU ainsi que des études de cas et du matériel supplémentaire seront publiées sur le site Web de la DIU « bientôt », a déclaré Goodman, pour aider les autres à tirer parti de l’expérience.

Voici des questions que Diu pose avant le début du développement

La première étape des directives consiste à définir la tâche. « C’est la question la plus importante », a-t-il déclaré. « Seulement s’il y a un avantage, si vous utilisez l’IA. »

Vient ensuite une référence, qui doit être mise à l’avant pour savoir si le projet a livré.

Ensuite, il évalue la propriété des données des candidats. «Les données sont essentielles pour le système d’IA et est l’endroit où de nombreux problèmes peuvent exister.» Dit Goodman. «Nous avons besoin d’un certain contrat sur qui possède les données. S’il est ambigu, cela peut entraîner des problèmes. »

Ensuite, l’équipe de Goodman veut un échantillon de données à évaluer. Ensuite, ils doivent savoir comment et pourquoi les informations ont été collectées. « Si le consentement a été donné dans un seul but, nous ne pouvons pas l’utiliser dans un autre but sans réobjecter le consentement », a-t-il déclaré.

Ensuite, l’équipe demande si les parties prenantes responsables sont identifiées, comme les pilotes qui pourraient être affectés en cas d’échec d’un composant.

Ensuite, les détenteurs de mission responsables doivent être identifiés. « Nous avons besoin d’un seul individu pour cela », a déclaré Goodman. «Souvent, nous avons un compromis entre l’exécution d’un algorithme et son explicabilité. Nous devrons peut-être décider entre les deux. Ces types de décisions ont une composante éthique et une composante opérationnelle. Nous devons donc avoir quelqu’un qui est responsable de ces décisions, ce qui est conforme à la chaîne de commandement du DoD. »

Enfin, l’équipe DIU nécessite un processus de retour en arrière si les choses tournent mal. « Nous devons être prudents à l’abandon du système précédent », a-t-il déclaré.

Une fois que toutes ces questions sont répondues de manière satisfaisante, l’équipe passe à la phase de développement.

Dans les leçons apprises, Goodman a déclaré: «Les métriques sont essentielles. Et la simple mesure de la précision peut ne pas être adéquate. Nous devons être en mesure de mesurer le succès. »

Ajustez également la technologie à la tâche. «Les applications à haut risque nécessitent une technologie à faible risque. Et lorsque le préjudice potentiel est important, nous devons avoir une grande confiance dans la technologie », a-t-il déclaré.

Une autre leçon apprise consiste à définir les attentes avec les vendeurs commerciaux. « Nous avons besoin que les vendeurs soient transparents », a-t-il déclaré. «Quand quelqu’un dit qu’il a un algorithme propriétaire dont il ne peut pas nous parler, nous sommes très méfiants. Nous considérons la relation comme une collaboration. C’est la seule façon de nous assurer que l’IA est développée de manière responsable. »

Enfin, «L’IA n’est pas magique. Cela ne résoudra pas tout. Il ne doit être utilisé que si nécessaire et uniquement lorsque nous pouvons prouver qu’il fournira un avantage. »

En savoir plus sur Gouvernement mondial de l’IAau Bureau de la responsabilité du gouvernement, au Cadre de responsabilité de l’IA et au Unité d’innovation de défense site.



Source link

Related post