Francesca Rossi d’IBM sur l’éthique de l’IA: idées pour les ingénieurs

En tant qu’informaticien qui a été immergé dans Éthique de l’IA Pendant environ une décennie, j’ai vu de première main comment le terrain a évolué. Aujourd’hui, un nombre croissant d’ingénieurs se retrouvent à développer des solutions d’IA tout en parcourant des considérations éthiques complexes. Au-delà de l’expertise technique, le déploiement responsable de l’IA nécessite une compréhension nuancée des implications éthiques.
Dans mon rôle d’IBM Éthique de l’IA Global Leader, j’ai observé un changement significatif dans le fonctionnement des ingénieurs de l’IA. Ils ne parlent plus à d’autres ingénieurs de l’IA de la façon de construire la technologie. Maintenant, ils doivent s’engager avec ceux qui comprennent comment leurs créations affecteront les communautés en utilisant ces services. Il y a plusieurs années à Ibmnous avons reconnu que les ingénieurs d’IA devaient intégrer des étapes supplémentaires dans leur processus de développement, à la fois technique et administrative. Nous avons créé un livre de jeu fournissant les bons outils pour les tests des problèmes comme le biais et la confidentialité. Mais comprendre comment utiliser ces outils correctement est crucial. Par exemple, il existe de nombreuses définitions différentes de l’équité dans l’IA. Déterminer quelle définition s’applique nécessite une consultation avec la communauté, les clients et les utilisateurs finaux affectés.
Dans son rôle chez IBM, Francesca Rossi cochaise la société AI éthique Conseil pour aider à déterminer ses principes de base et ses processus internes. Francesca Rossi
L’éducation joue un rôle vital dans ce processus. Lors de la pilotage de notre livre de jeu d’éthique de l’IA avec des équipes d’ingénierie de l’IA, une équipe pensait que leur projet était exempt de préoccupations de biais car elle n’incluait pas des variables protégées comme la race ou le sexe. Ils ne savaient pas que d’autres fonctionnalités, telles que le code postal, pouvaient servir de proxys corrélés aux variables protégées. Les ingénieurs croient parfois que les problèmes technologiques peuvent être résolus avec des solutions technologiques. Bien que les outils logiciels soient utiles, ce n’est que le début. Le plus grand défi réside dans Apprendre à communiquer et collaborer efficacement avec diverses parties prenantes.
La pression pour libérer rapidement de nouveaux produits et outils d’IA peut créer une tension avec une évaluation éthique approfondie. C’est pourquoi nous avons établi une gouvernance centralisée d’éthique de l’IA par le biais d’un conseil d’éthique de l’IA à IBM. Souvent, les équipes de projet individuelles sont confrontées à des délais et à des résultats trimestriels, ce qui leur rend difficile de considérer pleinement les impacts plus larges sur la réputation ou la confiance des clients. Les principes et les processus internes doivent être centralisés. Nos clients – d’autres entreprises – exigent de plus en plus des solutions qui respectent certaines valeurs. De plus, les réglementations dans certaines régions exigent désormais des considérations éthiques. Même les principales conférences d’IA nécessitent des articles pour discuter des implications éthiques de la recherche, poussant les chercheurs en IA à considérer l’impact de leur travail.
Chez IBM, nous avons commencé par développer des outils axés sur des questions clés comme confidentialité, explicabilité, justiceet transparence. Pour chaque préoccupation, nous avons créé une trousse d’outils open source avec des directives de code et des tutoriels pour aider les ingénieurs à les mettre en œuvre efficacement. Mais à mesure que la technologie évolue, les défis éthiques aussi. Avec AI génératifpar exemple, nous sommes confrontés nouvelles préoccupations sur la création de contenu potentiellement offensante ou violente, ainsi que des hallucinations. Dans le cadre de la famille d’IBM Modèles de granitnous avons développé Modèles de sauvegarde qui évaluent à la fois les invites d’entrée et les sorties pour des problèmes tels que la factualité et le contenu nuisible. Ces capacités de modèle répondent à la fois à nos besoins internes et à ceux de nos clients.
Bien que les outils logiciels soient utiles, ce n’est que le début. Le plus grand défi consiste à apprendre à communiquer et à collaborer efficacement.
Les structures de gouvernance des entreprises doivent rester suffisamment agiles pour s’adapter à l’évolution technologique. Nous évaluons continuellement comment les nouveaux développements comme l’IA génératrice et AI agentique pourrait amplifier ou réduire certains risques. Lors de la libération de modèles comme open sourcenous évaluons si cela présente de nouveaux risques et quelles garanties sont nécessaires.
Pour les solutions d’IA soulevant des drapeaux rouges éthiques, nous avons un processus d’examen interne qui peut entraîner des modifications. Notre évaluation s’étend au-delà des propriétés de la technologie (équité, explicabilité, confidentialité) à la façon dont elle est déployée. Le déploiement peut soit respecter la dignité humaine et l’agence, soit la saper. Nous effectuons des évaluations des risques pour chaque cas d’utilisation de la technologie, reconnaissant que la compréhension des risques nécessite une connaissance du contexte dans lequel la technologie fonctionnera. Cette approche s’aligne sur le Acte de l’IA européenFramework – ce n’est pas cette AI générative ou apprentissage automatique est intrinsèquement risqué, mais certains scénarios peuvent être un risque élevé ou faible. Les cas d’utilisation à haut risque exigent un examen supplémentaire.
Dans ce paysage en évolution rapide, l’ingénierie d’IA responsable nécessite une vigilance continue, une adaptabilité et un engagement envers les principes éthiques qui placent le bien-être humain au centre de l’innovation technologique.
À partir des articles de votre site
Articles connexes sur le Web