Nightshade: intoxication des données pour combattre l’IA génératrice avec Ben Zhao

Aujourd’hui, nous sommes rejoints par Ben Zhao, professeur de Neubauer en informatique à l’Université de Chicago. Dans notre conversation, nous explorons ses recherches à l’intersection de la sécurité et de l’IA génératrice. Nous nous concentrons sur les projets récents de Ben FAWKES, Glaze et Nightshade, qui utilisent des approches «empoisonnantes» pour offrir aux utilisateurs la sécurité et la protection contre les empiètements d’IA. Le premier outil dont nous discutons, FAWKES, «Crape» imperceptiblement des images de telle manière que les modèles les perçoivent comme des individus très déformés et effectivement protégées par la reconnaissance par des modèles de reconnaissance faciale. Nous fouillons ensuite dans Glaze, un outil qui utilise des algorithmes d’apprentissage automatique pour calculer des altérations subtiles indiscernables aux yeux humains mais adeptes à inciter les modèles à percevoir un changement significatif dans le style artistique, donnant aux artistes une défense unique contre le style de style. Enfin, nous couvrons Nightshade, un outil de défense stratégique pour les artistes semblable à une «pilule de poison» qui permet aux artistes d’appliquer des changements imperceptibles à leurs images qui «brisent» efficacement les modèles d’IA génératifs qui leur sont formés.