Les dernières recherches de Google Deepmind sur ICML 2023

 Les dernières recherches de Google Deepmind sur ICML 2023


Explorer la sécurité, l’adaptabilité et l’efficacité de l’IA pour le monde réel

La semaine prochaine marque le début du 40e Conférence internationale sur l’apprentissage automatique (ICML 2023), ayant lieu le 23-29 juillet à Honolulu, Hawai’i.

ICML rassemble la communauté de l’intelligence artificielle (AI) pour partager de nouvelles idées, outils et ensembles de données et établir des connexions pour faire avancer le domaine. De la vision par ordinateur à la robotique, des chercheurs du monde entier présenteront leurs dernières avancées.

Notre directeur des sciences, de la technologie et de la société, Shakir Mohamed, donnera un parler sur l’apprentissage automatique avec un objectif socialrelever les défis des soins de santé et du climat, adoptant une opinion sociotechnique et renforçant les communautés mondiales.

Nous sommes fiers de soutenir la conférence en tant que sponsor Platinum et de continuer à travailler avec nos partenaires à long terme Latinx en ai, Queer dans l’IAet Femmes en apprentissage automatique.

Lors de la conférence, nous présentons également des démos sur Alphafoldnos avancées dans Science de la fusionet de nouveaux modèles comme Palm-e pour la robotique et Phénaki pour générer des vidéos à partir de texte.

Les chercheurs de Google Deepmind présentent plus de 80 nouveaux articles chez ICML cette année. Comme de nombreux articles ont été soumis avant Google Brain et DeepMind ont uni leurs forcesles documents initialement soumis dans une affiliation Google Brain seront inclus dans un Blog de recherche Googletandis que ce blog présente des articles soumis sous une affiliation DeepMind.

AI dans le monde (simulé)

Le succès de l’IA qui peut lire, écrire et créer est soutenu par des modèles de fondation – des systèmes d’IA formés sur de vastes ensembles de données qui peuvent apprendre à effectuer de nombreuses tâches. Nos dernières recherches explorent comment nous pouvons traduire ces efforts dans le monde réel et jette les bases d’agents d’IA plus généralement capables et incarnés qui peuvent mieux comprendre la dynamique du monde, ouvrant de nouvelles possibilités pour des outils d’IA plus utiles.

Dans une présentation orale, nous introduisons Adaun agent d’IA qui peut s’adapter pour résoudre de nouveaux problèmes dans un environnement simulé, comme le font les humains. En quelques minutes, Ada peut assumer des tâches difficiles: combiner des objets de manière nouvelle, naviguer sur des terrains invisibles et coopérer avec d’autres joueurs

De même, nous montrons comment nous pourrions utiliser Modèles de vision pour aider à former des agents incarnés – Par exemple, en disant à un robot ce qu’il fait.

L’avenir de l’apprentissage du renforcement

Pour développer une IA responsable et digne de confiance, nous devons comprendre les objectifs au cœur de ces systèmes. Dans l’apprentissage du renforcement, cela peut être défini par la récompense.

Dans une présentation orale, nous visons à régler l’hypothèse de la récompense Posé d’abord par Richard Sutton déclarant que tous les objectifs peuvent être considérés comme maximisant la récompense cumulative attendue. Nous expliquons les conditions précises dans lesquelles il tient et clarifions les types d’objectifs qui peuvent – et ne peuvent pas – être capturés par récompense sous une forme générale du problème d’apprentissage du renforcement.

Lors du déploiement des systèmes d’IA, ils doivent être suffisamment robustes pour le monde réel. Nous regardons comment mieux algorithmes d’apprentissage du renforcement de la formation dans les contraintescar les outils d’IA doivent souvent être limités pour la sécurité et l’efficacité.

Dans nos recherches, qui a été reconnue par un ICML 2023 Prix de papier exceptionnelnous explorons comment nous pouvons enseigner une stratégie complexe de modèles à long terme sous incertitude avec Jeux d’information imparfaits. Nous partageons comment les modèles peuvent jouer pour gagner des jeux à deux joueurs même sans connaître la position de l’autre joueur et les mouvements possibles.

Défis à la frontière de l’IA

Les humains peuvent facilement apprendre, s’adapter et comprendre le monde qui nous entoure. Le développement de systèmes d’IA avancés qui peuvent généraliser de manière humaine aideront à créer des outils d’IA que nous pouvons utiliser dans notre vie quotidienne et à relever de nouveaux défis.

Une façon dont l’IA s’adapte est de modifier rapidement ses prédictions en réponse à de nouvelles informations. Dans une présentation orale, nous regardons plasticité dans les réseaux de neurones Et comment il peut être perdu au cours de la formation – et des moyens de prévenir les pertes.

Nous présentons également des recherches qui pourraient aider à expliquer le type d’apprentissage en contexte qui émerge dans des modèles de grande langue en étudiant Réseaux de neurones méta-formées sur les données Des sources dont les statistiques changent spontanément, comme dans la prédiction du langage naturel.

Dans une présentation orale, nous introduisons une nouvelle famille de réseaux de neurones récurrents (RNNS) qui fonctionnent mieux sur les tâches de raisonnement à long terme pour déverrouiller la promesse de ces modèles pour l’avenir.

Enfin, dans ‘affectation de crédit quantile«Nous proposons une approche pour démêler la chance de la compétence. En établissant une relation plus claire entre les actions, les résultats et les facteurs externes, l’IA peut mieux comprendre les environnements complexes et réels.



Source link

Related post