Cet outil supprime les protections anti-AI de l’art numérique

 Cet outil supprime les protections anti-AI de l’art numérique


Pour être clair, les chercheurs derrière Lightshed n’essaient pas de voler le travail des artistes. Ils ne veulent tout simplement pas que les gens aient un faux sentiment de sécurité. «Vous ne serez pas sûr de savoir si les entreprises ont des méthodes pour supprimer ces poisons, mais ne vous le diront jamais», explique Hanna Foerster, doctorante à l’Université de Cambridge et auteur principal d’un journal sur le travail. Et s’ils le font, il peut être trop tard pour résoudre le problème.

Les modèles d’IA fonctionnent, en partie, en créant implicitement des frontières entre ce qu’ils perçoivent comme différentes catégories d’images. Le glaçage et la morelle changent suffisamment de pixels pour pousser une œuvre d’art donnée sur cette frontière sans affecter la qualité de l’image, ce qui fait que le modèle le considère comme quelque chose qu’il n’est pas. Ces changements presque imperceptibles sont appelés perturbations, et ils gâchent la capacité du modèle d’IA à comprendre l’œuvre d’art.

Glaze fait des modèles mal comprises (par exemple, interprétant une peinture photoréaliste comme un dessin animé). Nightshade fait plutôt voir le modèle de voir le sujet incorrectement (par exemple, interpréter un chat dans un dessin comme un chien). Glaze est utilisé pour défendre le style individuel d’un artiste, tandis que Nightshade est utilisé pour attaquer les modèles d’IA qui ramper sur Internet pour l’art.

Foerster a travaillé avec une équipe de chercheurs de l’Université technique de Darmstadt et de l’Université du Texas à San Antonio pour développer Lightshed, qui apprend à voir où des outils comme Glaze et Nightshade Splash ce type de poison numérique sur l’art afin qu’il puisse le nettoyer efficacement. Le groupe présentera ses conclusions au Usenix Symposium de sécurité, une conférence mondiale de cybersécurité de premier plan, en août.

Les chercheurs ont formé des feuilles de lumière en lui nourrissant des œuvres d’art avec et sans morelle, glaçure et autres programmes similaires appliqués. Foerster décrit le processus comme enseignant aux légers pour reconstruire «juste le poison sur les images empoisonnées». L’identification d’une coupure pour la quantité de poison confondre réellement une IA permet de «laver» plus facilement le poison.

Lightshed est incroyablement efficace à ce sujet. Tandis que d’autres chercheurs avoir trouvé Des moyens simples de renverser l’empoisonnement, Lightshed semble être plus adaptable. Il peut même appliquer ce qu’il a appris d’un outil anti-ai-ai – disons, Nightshade – à d’autres comme Brume ou Métacloak sans jamais les voir à l’avance. Bien qu’il ait du mal à se produire contre de petites doses de poison, celles-ci sont moins susceptibles de tuer les capacités des modèles d’IA à comprendre l’art sous-jacent, ce qui en fait un gagnant-gagnant pour l’IA – ou une perte de perte pour les artistes utilisant ces outils.

Environ 7,5 millions de personnes, dont beaucoup d’artistes ayant des suivants et des ressources de taille moyenne et moins de ressources, ont téléchargé Glaze pour protéger leur art. Ceux qui utilisent des outils comme Glaze le voient comme une ligne technique importante de défense, en particulier lorsque l’état de réglementation concernant la formation et le droit d’auteur sur l’IA est toujours dans les airs. Les auteurs de lumière voient leur travail comme un avertissement que des outils comme Glaze ne sont pas des solutions permanentes. «Il pourrait nécessiter quelques autres cycles d’essayer de proposer de meilleures idées de protection», explique Foerster.

Les créateurs de Glaze et Nightshade semblent être d’accord avec ce sentiment: le site Web de Nightshade a averti que l’outil n’était pas à l’épreuve du temps avant le travail sur Lightshed. Et Shan, qui a dirigé des recherches sur les deux outils, croit toujours que des défenses comme le sien ont un sens même s’il y a des moyens de les contourner.



Source link

Related post