Les boomers solitaires sont condamnés maintenant que les escrocs utilisent des filtres AI pour se faire ressembler à de belles femmes

 Les boomers solitaires sont condamnés maintenant que les escrocs utilisent des filtres AI pour se faire ressembler à de belles femmes


Avouons-le: ce n’est jamais un moment particulièrement bon pour être un utilisateur de personnes âgées sur Internet. Les dossiers peuvent être difficiles à naviguer, les statuts Facebook sont pratiquement indiscernables de la barre de recherche Google, et le pointeur de la souris est tellement minuscule.

Malheureusement, ce n’est pas sur le point de devenir plus facile. Bien que de faux profils aient longtemps été habitués à l’escroquerie des internautes non indigènes, une tendance croissante de simulations en direct en direct alimenté par l’IA cible les jeunes et les grands.

Appelé « Deepfakes en temps réel » – Deepfakes en référence à des images usurpées qui deviennent presque impossibles pour distinguer de la vie réelle – les escrocs modifient maintenant leur apparence et leurs voix dans des vidéos en direct. Tout est propulsé par l’IA génératrice, la même technologie qui remplit Internet avec des rames de slobe généré par ordinateur.

UN plongée profonde par 404 médias révèle les façons dont les fraudeurs utilisent la technologie réalisée pour tromper les utilisateurs. Une vidéo qu’ils ont obtenue a montré un jeune homme noir apparaissant comme un blanc avec une barbe grise à une femme à qui il parlait sur Facetime. Un autre a montré un homme apparaissant comme une femme plus jeune.

Une fois qu’un escroc garantit la confiance de leur cible par leur voix et leur apparence réalistes, la fraude réelle peut commencer. 404 note que les utilisateurs de cette technologie se déployent généralement escroqueries romanes, Fraude à l’assurance-maladieet schémas de vérification photo.

Un autre exemple horrible appelé « arnaque des grands-parents« Implique des criminels imitants à l’identité de la voix d’un être cher afin de contraindre un paiement ou de confier une personne âgée à révéler des informations sensibles, qui peuvent ensuite être utilisées pour accéder à des comptes sécurisés. » J’étais impatient de faire sortir l’argent; Je ferais n’importe quoi pour mes petits-enfants « , a déclaré Une grand-mère canadienne qui avait été ciblé pour 9 000 $ en dollars canadiens.

Il est facile de serrer les personnes âgées, mais la sophistication croissante de ces outils signifie que les jeunes sont également très sensibles. Recherche en 2021par exemple, a constaté que les jeunes générations de la génération Z, de la génération Y et de la génération X étaient de 34% plus susceptibles d’avoir perdu de l’argent à cause de la fraude que des personnes de plus de 60 ans, bien qu’elles soient plus susceptibles d’avoir été cédées par de faux produits et des projets de crypto que les escroqueries romantiques.

L’élection présidentielle de 2024 a également fait pleuvoir des montagnes de Deepfake à la pluie sur les réseaux sociaux.

Utilisées pour répandre les mèmes et la désinformation, les outils DeepFake permettaient aux affiches comme Elon Musk à usurper des figures telles que Kamala Harris se dénigrer. La ligne avec parodie peut être floue; Un exemple viral est le tristement célèbre duo Trump / Biden, dans lequel les deux concurrents politiques chantent une chanson d’amour de mandarin tendre.

D’autres exemples abondent, comme un Audio Deepfake qui prétendait montrer un directeur de la région de Baltimore faisant des commentaires désobligeants et racistes, et un travailleur financier qui a déboursé 25 millions de dollars après des escrocs truqué un appel de zoom à plusieurs personnesy compris un faux IA du directeur financier de l’entreprise.

Si des célébrités, des travailleurs financiers et des communautés entières peuvent se retrouver à la merci de profondeurs sans scrupules, quelles chances nos personnes âgées ont-elles de résister aux escroqueries de profondeur?

Plus sur Deepfakes: La startup AI supprime tout le site Web après que le chercheur trouve quelque chose de dégoûtant là-bas



Source link

Related post