Les scientifiques avertissent les fesses profondes sont sur le point de devenir indétectables

Généré par AI Vidéos DeepFake La représentation des humains devient de plus en plus avancée et plus courante, de jour en jour. Les outils les plus sophistiqués peuvent désormais produire du contenu manipulé qui est indiscernable à l’observateur humain moyen. DeepFake Detectors, qui utilisent leurs propres modèles d’IA pour analyser les clips vidéo, tentent de contourner cette tromperie en recherchant des races cachées. L’un d’eux est la présence d’un pouls humain. Dans le passé, les modèles d’IA qui ont détecté une impulsion ou une fréquence cardiaque notable pourraient classer en toute confiance ces clips comme authentiques. Mais ce n’est peut-être plus le cas.
Des chercheurs de l’Université de Humboldt de Berlin a publié une étude cette semaine dans la revue Frontières en imagerie dans lequel ils ont créé des vidéos profondes de personnes qui semblaient montrer des impulsions de type humain. DeepFake Detectors formé pour utiliser des impulsions comme marqueur de l’authenticité classifiait incorrectement ces vidéos manipulées comme réelles. Les résultats suggèrent que la fréquence cardiaque et le pouls – une fois considérés IA Modèles DeepFake. En d’autres termes, le jeu constant de chat et de souris entre les créateurs et les détecteurs DeepFake peut basculer en faveur des trompeurs.
« Ici, nous montrons pour la première fois que les récentes vidéos DeepFake de haute qualité peuvent présenter un rythme cardiaque et des changements de minute réalistes dans la couleur du visage, ce qui les rend beaucoup plus difficiles à détecter », a déclaré Peter Eisert, le professeur et l’étude correspondant à l’auteur correspondant à l’Université de Berlin, dans un communiqué.
Comment les fesses profondes fonctionnent et pourquoi ils sont dangereux
Le terme femelle profonde se réfère largement à un IA Technique qui utilise l’apprentissage en profondeur pour manipuler les fichiers multimédias. Deepfakes peut être utilisé pour générer des images, des vidéos et des audio avec divers degrés de réalisme. Bien que certains cas d’utilisation puissent être relativement inoffensifs, la technologie a rapidement acquis une notoriété pour alimenter une augmentation de l’imagerie sexuelle non consensuelle. Un chercheur indépendant prendre la parole avec Câblé en 2023 a estimé qu’environ 244 625 vidéos manipulées ont été téléchargées sur les 35 meilleurs sites Web porno DeepFake sur une période de sept jours. La récente montée de soi-disant « nusifier«Les applications pour smartphone ont encore amplifié le problème, permettant aux personnes sans expertise technique d’insérer le visage de quelqu’un dans des images sexuellement explicites en cliquant sur un bouton.
Il y a aussi des préoccupations concernant d’autres exemples de forfaits profonds, en particulier des versions audio et vidéo, utilisées pour tromper les gens Tomber pour les escroqueries financières. D’autres craignent que la technologie puisse être utilisée pour créer des copies convaincantes des législateurs et d’autres personnalités puissantes pour répandre la désinformation. Deepfakes ont déjà proliféré dépeindre les présidents Barack Obama et Donald Trump, parmi de nombreuses autres personnalités publiques. Congrès juste cette semaine a adopté un nouveau projet de loi controversé Appelé l’acte de prise de prise qui criminaliserait la publication et le partage d’images sexuelles non consensuelles, y compris celles générées à l’aide de l’IA.
En rapport: (La propagation du contenu généré par l’IA pourrait entraîner des amendes coûteuses)
Comment les détecteurs DeepFake scannent des vidéos pour une impulsion
Mais tout effort pour lutter de manière significative Deepfakes nécessite un système robuste pour les séparer avec précision du matériel authentique. Dans le passé, les vidéos DeepFake étaient souvent reconnaissables même aux téléspectateurs occasionnels parce qu’ils contenaient des signes révélateurs – ou des «artefacts» – tels que des mouvements ou des distorsions de paupières non naturelles sur les bords du visage. Cependant, les modèles DeepFake IA ont progressé et amélioré, les chercheurs ont cependant dû développer des méthodes plus sophistiquées pour repérer les contrefaçons. Depuis à Au moins 2020l’une de ces techniques a impliqué l’utilisation de la photopléthysmographie à distance (RPPG) – une méthode Surtout connu pour son utilisation en télésanté pour mesurer les signes vitaux humains– pour détecter les signes d’une impulsion. Jusqu’à présent, il était largement supposé que les images générées par l’AI, de façon convaincante, si elles pourraient l’être, ne présenteraient pas une impulsion détectable.
Des chercheurs de l’Université de Humboldt voulaient voir si ces hypothèses étaient toujours vraies lorsqu’elles étaient testées contre certaines des techniques de profondeur les plus à jour. Pour tester leur hypothèse, ils ont d’abord développé un système de détection DeepFake conçu spécifiquement pour analyser des vidéos pour des signes de fréquence cardiaque et de pouls. Ils l’ont formé à l’aide de données vidéo collectées auprès de participants humains qui ont été invités à s’engager dans une gamme d’activités telles que parler, lire et interagir avec le superviseur d’enregistrement, qui ont tous produit des expressions faciales variées. Les chercheurs ont constaté que leur modèle était en mesure d’identifier avec précision la fréquence cardiaque des individus après avoir été formé sur seulement 10 secondes de données vidéo.
Avec cet ensemble de référence, les chercheurs ont ensuite répété le test, cette fois en utilisant des vidéos générées par l’IA des mêmes participants humains. Au total, ils ont créé 32 vidéos DeepFake, qui semblaient toutes authentiques à l’œil humain. Bien que les chercheurs s’attendaient à ce que ces vidéos manipulées soient signalées par le détecteur pour manque de pouls, le contraire exact s’est produit. Le détecteur a enregistré des battements cardiaques qui n’auraient pas dû être présents et à tort ont conclu que les vidéos représentaient de vrais humains.
« Nos expériences ont démontré que Deep Fakes peut présenter des fréquences cardiaques réalistes, contredictant les résultats précédents », écrivent les chercheurs.
Les détecteurs peuvent avoir besoin de s’adapter à une nouvelle réalité
Les chercheurs disent que les résultats indiquent une vulnérabilité potentielle dans les détecteurs modernes Deepfake qui pourraient être exploités par de mauvais acteurs. En théorie, notent-ils que les générateurs DeepFake pourraient «insérer» des signes de battements cardiaques dans des vidéos manipulées pour tromper les systèmes de détection. Il convient de noter que ce n’était pas le cas dans la présente étude. Au lieu de cela, les vidéos DeepFake semblaient avoir «hérité» des signaux de battement de cœur des vidéos originales sur lesquelles ils étaient basés. On ne sait pas exactement comment cet héritage s’est produit. Une figure incluse dans le document montrant des cartes thermiques des vidéos humaines originales et des FAKED Deepwead présente des variations similaires dans la transmission de la lumière à travers la peau et les vaisseaux sanguins. Certains de ces changements, appelés la recherche comme une «trace de signal» sont presque identiques, ce qui suggère qu’ils ont été transportés de la vidéo d’origine dans le nouveau Deepfake. Tout cela suggère que des modèles plus avancés sont capables de reproduire ces sensations minuscules dans leurs Fakeries, ce qui n’était pas possible avec des outils DeepFake il y a quelques années.

« De petites variations du teint de la vraie personne sont transférées sur le Fake Deep avec le mouvement facial, de sorte que l’impulsion d’origine est reproduite dans la fausse vidéo », a déclaré Eisert.
Ces résultats, bien que significatifs, ne signifient pas nécessairement que les efforts pour atténuer efficacement les fasts profonds sont vains. Les chercheurs notent que même si les outils avancés de Farfake actuels peuvent simuler un rythme cardiaque réaliste, ils ne représentent toujours pas régulièrement des variations naturelles du flux sanguin à travers l’espace et le temps dans le visage. Ailleurs, certains Détecteurs commerciaux Deepfake utilisent déjà des mesures plus granulaires, telles que Mesurer les variations de la luminosité des pixels –Cela ne reposait pas du tout sur les caractéristiques physiologiques. Les grandes entreprises technologiques comme Adobe et Google développent également des systèmes de filigrane numérique pour les images et les vidéos Pour aider à suivre si le contenu a été manipulé à l’aide de l’IA. Pourtant, les résultats de cette semaine soulignent comment l’évolution rapide de la technologie DeepFake signifie que ceux qui travaillent à le détecter ne peuvent pas se permettre de s’appuyer sur une seule méthode pour longtemps.