Comment nos principes ont aidé à définir la libération d’Alphafold

Entreprise
Réflexions et leçons sur le partage de l’une de nos plus grandes percées avec le monde
Mettre notre mission de résolution de l’intelligence pour faire progresser la science et profiter à l’humanité en pratique s’accompagne de responsabilités cruciales. Pour aider à créer un impact positif pour la société, nous devons évaluer de manière proactive les implications éthiques de nos recherches et ses applications de manière rigoureuse et prudente. Nous savons également que chaque nouvelle technologie a le potentiel de préjudice et nous prenons au sérieux les risques à court et à court terme. Nous avons construit nos fondements sur le pionnier de manière responsable dès le départ – en particulier axé sur la gouvernance, la recherche et l’impact responsables.
Cela commence par la définition de principes clairs qui aident à réaliser les avantages de l’intelligence artificielle (IA), tout en atténuant ses risques et ses résultats négatifs potentiels. Le pionnier est de manière responsable un effort collectif, c’est pourquoi nous avons contribué à de nombreuses normes communautaires d’IA, telles que celles développées par Googlele Partenariat sur l’IAet le OCDE (Organisation de coopération économique et de développement).
Notre Principes de fonctionnement sont venus définir à la fois notre engagement à hiérarchiser les avantages généralisés, ainsi que les domaines de la recherche et des applications que nous refusons de poursuivre. Ces principes ont été au cœur de notre prise de décision depuis la fondation Deepmind et continuent d’être affinés à mesure que le paysage de l’IA change et se développe. Ils sont conçus pour notre rôle en tant que société scientifique axée sur la recherche et conformes aux principes d’IA de Google.
Des principes à la pratique
Les principes écrits ne sont qu’une partie du puzzle – comment ils sont mis en pratique est essentiel. Pour les recherches complexes effectuées aux frontières de l’IA, cela apporte des défis importants: comment les chercheurs peuvent-ils prédire les avantages et les préjudices potentiels qui peuvent survenir dans un avenir lointain? Comment pouvons-nous développer une meilleure prévoyance éthique à partir d’un large éventail de perspectives? Et que faut-il pour explorer des questions difficiles parallèlement aux progrès scientifiques en temps réel pour prévenir les conséquences négatives?
Nous avons passé de nombreuses années à développer nos propres compétences et processus pour la gouvernance responsable, la recherche et l’impact sur DeepMind, de la création de boîtes à outils internes et de publier des articles sur les questions sociotes et de soutenir les efforts visant à accroître la délibération et la prévoyance dans le domaine de l’IA. Pour aider à permettre aux équipes DeepMind de pionnier de manière responsable et de sauvegarde contre le préjudice, notre comité d’intervalle institutionnel interdisciplinaire (IRC) se réunit toutes les deux semaines pour évaluer soigneusement les projets, les articles et les collaborations DeepMind.
Le pionnier est de manière responsable est un muscle collectif, et chaque projet est l’occasion de renforcer nos compétences et notre compréhension articulaires. Nous avons soigneusement conçu notre processus d’examen pour inclure des experts en rotation à partir d’un large éventail de disciplines, avec des chercheurs en apprentissage automatique, des éthiciens et des experts en sécurité assis aux côtés d’ingénieurs, d’experts en sécurité, de professionnels des politiques, etc. Ces diverses voix identifient régulièrement des moyens d’élargir les avantages de nos technologies, suggèrent que les domaines de recherche et les applications changent ou ralentissent, et mettent en évidence des projets où une consultation externe supplémentaire est nécessaire.
Bien que nous ayons fait beaucoup de progrès, de nombreux aspects de ce se trouvent dans un territoire inexploré. Nous n’obtenons pas les choses à chaque fois et nous nous engageons à l’apprentissage et à l’itération continus. Nous espérons que le partage de notre processus actuel sera utile aux autres travaillant sur une IA responsable et encourageons les commentaires alors que nous continuons à apprendre, c’est pourquoi nous avons détaillé les réflexions et les leçons de l’un de nos projets les plus complexes et les plus gratifiants: AlphaFold. Notre système d’IA Alphafold a résolu le défi de 50 ans de la prédiction de la structure des protéines – et nous avons été ravis de voir les scientifiques l’utiliser pour accélérer les progrès dans des domaines tels que la durabilité, la sécurité alimentaire, la découverte de médicaments et la biologie humaine fondamentale depuis la libération de la communauté plus large l’année dernière.
Se concentrer sur la prédiction de la structure des protéines
Notre équipe de chercheurs, de biologistes et d’ingénieurs de l’apprentissage automatique a depuis longtemps considéré le problème de pliage des protéines comme une opportunité remarquable et unique pour les systèmes d’apprentissage en IA de créer un impact significatif. Dans ce domaine, il existe des mesures standard de réussite ou d’échec, et une limite claire de ce que le système d’IA doit faire pour aider les scientifiques dans leur travail – prédire la structure tridimensionnelle d’une protéine. Et, comme pour de nombreux systèmes biologiques, le repliement des protéines est beaucoup trop complexe pour que quiconque rédige les règles de son fonctionnement. Mais un système d’IA pourrait être en mesure d’apprendre ces règles pour lui-même.
Un autre facteur important était l’évaluation biennale, connue sous le nom Casse (l’évaluation critique de la prédiction de la structure des protéines), qui était Fondée par le professeur John Moult et le professeur Krzysztof Fidelis. Avec chaque rassemblement, CASP fournit une évaluation exceptionnellement robuste des progrès, obligeant les participants à prédire les structures qui n’ont été découvertes que récemment par le biais d’expériences. Les résultats sont un excellent catalyseur pour la recherche ambitieuse et l’excellence scientifique.
Comprendre les opportunités et les risques pratiques
Alors que nous nous préparions pour l’évaluation CASP en 2020, nous avons réalisé qu’Alphafold montrait un grand potentiel pour résoudre le défi à portée de main. Nous avons passé beaucoup de temps et d’efforts à analyser les implications pratiques, à questionner: comment alphafold pourrait-il accélérer la recherche biologique et les applications? Quelles pourraient être les conséquences involontaires? Et comment pourrions-nous partager nos progrès de manière responsable?
Cela présentait un large éventail d’opportunités et de risques à considérer, dont beaucoup se trouvaient dans des domaines où nous n’avions pas nécessairement une forte expertise. Nous avons donc recherché les contributions externes de plus de 30 leaders sur le terrain à travers la recherche en biologie, la biosécurité, la bioéthique, les droits de l’homme, etc., en mettant l’accent sur la diversité de l’expertise et des antécédents.
De nombreux thèmes cohérents sont apparus tout au long de ces discussions:
- Équilibrer les avantages généralisés avec le risque de préjudice. Nous avons commencé avec un état d’esprit prudent sur le risque de préjudice accidentel ou délibéré, y compris comment Alphafold pourrait interagir avec les avancées futures et les technologies existantes. Grâce à nos discussions avec des experts externes, il est devenu plus clair qu’Alphafold ne faciliterait pas de manière significative des dommages avec les protéines, étant donné les nombreuses obstacles pratiques à cela – mais que les avancées futures devraient être évaluées attentivement. De nombreux experts ont fortement soutenu qu’Alphafold, en tant qu’avance pertinente pour de nombreux domaines de la recherche scientifique, aurait le plus grand avantage grâce à un accès gratuit et répandu.
- Des mesures de confiance précises sont essentielles pour une utilisation responsable. Les biologistes expérimentaux ont expliqué à quel point il serait important de comprendre et de partager des mesures de confiance bien calibrées et utilisables pour chaque partie des prédictions d’Alphafold. En signalant lesquelles des prédictions d’Alphafold sont susceptibles d’être exactes, les utilisateurs peuvent estimer lorsqu’ils peuvent faire confiance à une prédiction et l’utiliser dans leur travail – et lorsqu’ils doivent utiliser des approches alternatives dans leur recherche. Nous avions initialement envisagé d’omettre des prédictions pour lesquelles Alphafold avait une faible confiance ou une incertitude prédictive élevée, mais les experts externes que nous avons consultés ont prouvé pourquoi il était particulièrement important de conserver ces prédictions dans notre communiqué, et nous a conseillé sur les moyens les plus utiles et les plus transparents de présenter ces informations.
- Un avantage équitable pourrait signifier un soutien supplémentaire aux champs sous-financés. Nous avons eu de nombreuses discussions sur la façon d’éviter d’augmenter par inadvertance les disparités au sein de la communauté scientifique. Par exemple, soi-disant Maladies tropicales négligéesqui affectent de manière disproportionnée les parties les plus pauvres du monde, reçoivent souvent moins de financement de recherche qu’elles ne devraient. Nous avons été fortement encouragés à hiérarchiser le soutien pratique et à chercher de manière proactive à nous associer à des groupes travaillant sur ces domaines.
Établir notre approche de libération
Sur la base de l’entrée ci-dessus, l’IRC a approuvé un ensemble de versions Alphafold pour répondre à plusieurs besoins, notamment:
- Publications à comité de lecture et code open source, y compris deux papiers de nature, accompagné de code open sourcepour permettre aux chercheurs de mettre en œuvre et d’améliorer plus facilement Alphafold. Peu de temps après, nous avons ajouté un Google Colab permettant à quiconque de saisir une séquence de protéines et de recevoir une structure prévue, comme alternative à l’exécution du code open source lui-même.
- Une libération majeure de prédictions de la structure des protéines en partenariat EMBL-EBI (Institut européen de bioinformatique d’Embl’s Embl), le leader communautaire établi. En tant qu’institution publique, EMBL-EBI permet à quiconque de rechercher des prévisions de structure protéique aussi facilement qu’une recherche Google. La version initiale comprenait des formes prévues pour chaque protéine du corps humain et notre Mise à jour la plus récente inclus des structures prédites pour presque toutes les protéines cataloguées connues de la science. Cela totalise plus de 200 millions de structures, toutes disponibles gratuitement sur le site Web d’Embl-Ebi avec des licences en libre accès, accompagnées de ressources de soutien, telles que webinaires sur l’interprétation de ces structures.
- Construire des visualisations 3D dans la base de données, avec un étiquetage proéminent pour les zones de confiance élevée et faible de confiance de la prédiction et, en général, visant à être aussi claire que possible sur les forces et les limites d’Alphafold dans notre documentation. Nous avons également conçu la base de données pour être aussi accessible que possible, par exemple, en considérant les besoins des personnes ayant une carence en vision des couleurs.
- Former des partenariats plus profonds avec des groupes de recherche travaillant sur des zones sous-financées, telles que les maladies négligées et les sujets essentiels à la santé mondiale. Cela comprend DNDI (Initiative de maladie négligée des médicaments), qui fait progresser la recherche sur la maladie de Chagas et la leishmaniose, et le Center for Enzyme Innovation qui développe des enzymes mangeurs de plastique pour aider à réduire les déchets plastiques dans l’environnement. Nos équipes croissantes d’engagement du public continuent de travailler sur ces partenariats pour soutenir plus de collaborations à l’avenir.
Comment nous nous appuyons sur ce travail
Depuis notre libération initiale, des centaines de milliers de personnes de plus de 190 pays ont visité le Base de données de structure de protéines Alphafold et utilisé le Code open source Alphafold Depuis le lancement. Nous avons été honorés d’avoir entendu des façons dont les prédictions d’Alphafold ont accéléré d’importants efforts scientifiques et travaillent à raconter certaines de ces histoires avec notre Déplié projet. Jusqu’à présent, nous ne connaissons aucune mauvaise utilisation ou préjudice lié à Alphafold, bien que nous continuons à accorder une attention particulière à cela.
Alors qu’Alphafold était plus complexe que la plupart des projets de recherche DeepMind, nous utilisons des éléments de ce que nous avons appris et incorporant cela dans d’autres versions.
Nous s’appuyons sur ce travail par:
- Augmentation de la gamme de contributions des experts externes À chaque étape du processus et en explorant les mécanismes de l’éthique participative à plus grande échelle.
- Élargir notre compréhension de l’IA pour la biologie En général, au-delà de tout projet individuel ou percée, développer une vision plus forte des opportunités et des risques au fil du temps.
- Trouver des moyens d’élargir nos partenariats avec des groupes dans des champs mal desservis par les structures actuelles.
Tout comme nos recherches, c’est un processus d’apprentissage continu. Le développement de l’IA pour un avantage généralisé est un effort communautaire qui s’étend bien au-delà de DeepMind.
Nous nous efforçons de faire attention à la quantité de travail acharné qu’il y a encore à faire en partenariat avec les autres – et comment nous pionnions de manière responsable à l’avenir.