Dans l’avant pour le sommet AI Séoul

Comment les sommets à Séoul, en France et au-delà peuvent galvaniser la coopération internationale sur la sécurité de l’IA frontalière
L’année dernière, le gouvernement britannique a accueilli le premier grand sommet mondial sur la sécurité de Frontier AI à Bletchley Park. Il a concentré l’attention du monde sur les progrès rapides à la frontière du développement de l’IA et a livré une action internationale concrète pour répondre aux risques futurs potentiels, notamment le Déclaration de Bletchley; nouveaux instituts de sécurité en IA; et le Rapport scientifique international sur la sécurité avancée de l’IA.
Six mois après Bletchley, la communauté internationale a la possibilité de s’appuyer sur cette élan et de galvaniser la coopération mondiale au sommet de l’IA Séoul de cette semaine. Nous partageons ci-dessous quelques réflexions sur la façon dont les sommets – et les futurs – peuvent progresser vers une approche mondiale commune de la sécurité de l’IA frontalière.
Les capacités d’IA ont continué à avancer à un rythme rapide
Depuis Bletchley, il y a eu une forte innovation et des progrès dans tout le domaine, y compris de Google Deepmind. L’IA continue de provoquer des percées dans des domaines scientifiques critiques, avec notre nouveau Alphafold 3 Modèle prédisant la structure et les interactions de toutes les molécules de la vie avec une précision sans précédent. Ce travail aidera à transformer notre compréhension du monde biologique et à accélérer la découverte de médicaments. En même temps, notre Famille de modèles Gemini ont déjà rendu des produits utilisés par des milliards de personnes dans le monde plus utiles et accessibles. Nous avons également travaillé à améliorer la façon dont nos modèles perçoivent, raisonnent et interagissent et ont récemment partagé nos progrès dans la construction de l’avenir des assistants d’IA avec Projet Astra.
Ces progrès sur les capacités de l’IA promet d’améliorer la vie de nombreuses personnes, mais soulèvent également de nouvelles questions qui doivent être abordées en collaboration dans un certain nombre de domaines de sécurité clés. Google Deepmind s’efforce d’identifier et de relever ces défis grâce à des recherches pionnières en matière de sécurité. Au cours des derniers mois seulement, nous avons a partagé notre approche évolutive pour développer un ensemble holistique d’évaluations de sécurité et de responsabilité pour nos modèles avancés, notamment RECHERCHE PROBLÈME Évaluer des capacités critiques telles que la tromperie, la cybersécurité, l’auto-prolifération et l’auto-saison. Nous avons également publié une exploration approfondie en Aligner les futurs assistants avancés d’IA avec des valeurs et des intérêts humains. Au-delà des LLM, nous avons récemment partagé notre approche pour biosécurité pour Alphafold 3.
Ce travail est motivé par notre conviction que nous devons innover sur la sécurité et la gouvernance aussi rapidement que nous innovons sur les capacités – et que les deux choses doivent être faites en tandem, informant et se renforçant continuellement.
Construire un consensus international sur les risques d’IA frontalière
La maximisation des avantages des systèmes d’IA avancés nécessite de créer un consensus international sur les problèmes critiques de sécurité des frontières, notamment anticiper et préparer de nouveaux risques au-delà de ceux posés par les modèles actuels. Cependant, étant donné le degré élevé d’incertitude quant à ces risques futurs potentiels, il existe une demande claire de la part des décideurs politiques pour une vision indépendante et scientifique.
C’est pourquoi le lancement du nouvel intérim Rapport scientifique international sur la sécurité de l’IA avancée est un élément important du sommet de l’IA Séoul – et nous sommes impatients de soumettre des preuves de nos recherches plus tard cette année. Au fil du temps, ce type d’effort pourrait devenir une entrée centrale du processus du sommet et, en cas de succès, nous pensons qu’il devrait avoir un statut plus permanent, modélisé de manière lâche sur la fonction du panneau intergouvernemental sur le changement climatique. Ce serait une contribution vitale à la base de preuves dont les décideurs politiques du monde entier ont besoin pour éclairer l’action internationale.
Nous pensons que ces sommets de l’IA peuvent fournir un forum régulier dédié à la construction d’un consensus international et une approche commune et coordonnée de la gouvernance. Garder un accent unique sur la sécurité des frontières garantira également que ces concours sont complémentaires et non en double des autres efforts de gouvernance internationale.
Établir les meilleures pratiques dans les évaluations et un cadre de gouvernance cohérent
Les évaluations sont un élément essentiel nécessaire pour éclairer les décisions de gouvernance de l’IA. Ils nous permettent de mesurer les capacités, le comportement et l’impact d’un système d’IA, et sont une entrée importante pour les évaluations des risques et la conception d’atténuations appropriées. Cependant, la science des évaluations de la sécurité de l’IA frontalière est encore au début de son développement.
C’est pourquoi le Forum du modèle frontalier (FMF), que Google a lancé avec d’autres principaux laboratoires d’IA, s’engage avec les instituts de sécurité de l’IA aux États-Unis et au Royaume-Uni et dans d’autres parties prenantes sur les meilleures pratiques pour évaluer les modèles frontaliers. Les sommets de l’IA pourraient aider à évoluer ce travail à l’international et aider à éviter un patchwork de régimes nationaux et de régimes de gouvernance qui sont duplicatifs ou en conflit les uns avec les autres. Il est essentiel que nous évitions une fragmentation qui pourrait nuire par inadvertance à la sécurité ou à l’innovation.
Les instituts de sécurité AI américains et britanniques ont déjà accepté Pour construire une approche commune des tests de sécurité, un premier pas important vers une plus grande coordination. Nous pensons qu’il y a une opportunité au fil du temps de s’appuyer sur cela vers une approche mondiale commune. Une priorité initiale du sommet de Séoul pourrait être de convenir d’une feuille de route pour un large éventail d’acteurs pour collaborer au développement et à la normalisation des références et des approches d’évaluation de l’IA frontalière.
Il sera également important de développer des cadres partagés pour la gestion des risques. Pour contribuer à ces discussions, nous avons récemment introduit la première version de notre Cadre de sécurité frontalièreun ensemble de protocoles pour identifier de manière proactive les capacités futures de l’IA qui pourraient causer de graves dommages et mettre en place des mécanismes pour les détecter et les atténuer. Nous nous attendons à ce que le cadre évolue considérablement à mesure que nous apprenons de sa mise en œuvre, approfondissons notre compréhension des risques et évaluations de l’IA et collaborons avec l’industrie, le monde universitaire et le gouvernement. Au fil du temps, nous espérons que le partage de nos approches facilitera le travail avec d’autres pour s’entendre sur les normes et les meilleures pratiques pour évaluer la sécurité des générations futures de modèles d’IA.
Vers une approche mondiale pour la sécurité de l’IA frontalière
De nombreux risques potentiels qui pourraient résulter des progrès à la frontière de l’IA sont de nature mondiale. Alors que nous nous dirigeons vers le sommet de l’IA Séoul et que nous examinons les futurs sommets en France et au-delà, nous sommes ravis de l’opportunité de faire progresser la coopération mondiale sur la sécurité de l’IA frontalière. Nous espérons que ces sommets fourniront un forum dédié pour les progrès vers une approche mondiale commune. Obtenir cela correctement est une étape essentielle pour débloquer les énormes avantages de l’IA pour la société.