Confidentialité et sécurité pour la diffusion stable et les LLM avec Nicholas Carlini

Aujourd’hui, nous sommes rejoints par Nicholas Carlini, chercheur chez Google Brain. Nicholas travaille à l’intersection de l’apprentissage automatique et de la sécurité informatique, et son récent article «Extraction de données de formation de LLMS» a généré un buzz au sein de la communauté ML. Dans notre conversation, nous discutons de l’état actuel de la recherche sur l’apprentissage automatique contradictoire, de la dynamique de la gestion des problèmes de confidentialité dans la boîte noire par rapport aux modèles accessibles, à ce que ressemblent les attaques de confidentialité dans les modèles de diffusion et l’échelle de la «mémorisation» dans ces modèles. Nous explorons également les travaux de Nicholas sur l’intoxication des données, qui cherche à comprendre ce qui se passe si un mauvais acteur peut prendre le contrôle d’une petite fraction des données sur lesquelles un modèle ML est formé.