C’est ainsi que les pirates ciblent les gens de tous les jours avec des chatbots d’IA

 C’est ainsi que les pirates ciblent les gens de tous les jours avec des chatbots d’IA


Les pirates utilisent une IA générative pour cibler les gens plus efficacement et à moindre coût que jamais. Bien que vous puissiez être confiant dans votre capacité à détecter les attaques malveillantes, c’est le moment idéal pour réprimer les dernières tactiques qu’ils utilisent pour exploiter les gens.

Comment les pirates utilisent-ils l’IA pour choisir leurs cibles?

Song_about_summer /Décrocheur

Les pirates comptent sur des profils de médias sociaux volés pour escroquer les gens. Pour voler des identités en ligne, ils créent souvent de faux profils qui imitent les vrais utilisateurs ou détournent des comptes réels pour exploiter la confiance et manipuler les victimes.

Les robots alimentés par AI peuvent aider à gratter les médias sociaux pour les photos, les bios et les publications pour générer des comptes clonés convaincants. Une fois qu’un escroc construit un faux profil, il envoie des demandes d’amis aux contacts de la victime, les incitant à penser qu’ils interagissent avec quelqu’un qu’ils connaissent.

Un compte réel ouvre plus de portes à l’utilisation d’IA pour des escroqueries plus efficaces, uniques et ciblées. Les robots alimentés par l’IA peuvent identifier les relations étroites, révéler des informations cachées et analyser les conversations passées. À partir de là, les chatbots d’IA peuvent prendre le relais et commencer à discuter avec eux en imitant les modèles de discours et en poussant des escroqueries comme les liens de phishing, les fausses urgences, les demandes financières ou pour partager des informations sensibles.

Par exemple, je suis sûr que vous avez vu le compte Facebook d’un ami compromis et utilisé pour publier des liens de phishing sur leur flux Facebook. Ce n’est qu’une partie d’une prise de contrôle du compte. Une fois compromis, un escroc peut utiliser des outils d’IA pour envoyer un message à tout le monde dans les contacts du compte d’escroquerie, espérant piéger plus de victimes.

En raison de ces développements, de nombreux services Web utilisent des captchas complexes et difficiles à résoudre, une authentification obligatoire à deux facteurs et des systèmes de suivi des comportements plus sensibles. Mais même avec ces défenses supplémentaires, les gens sont toujours la plus grande vulnérabilité.

Types d’escroqueries alimentées par IA que vous devriez savoir

Les cybercriminels utilisent une IA multimodale pour créer des bots ou une usure des individus ou des groupes de haut niveau. Bien que de nombreuses escroqueries alimentées par l’IA utilisent des techniques d’ingénierie sociale conventionnelles, l’utilisation de l’IA améliore leur efficacité et les rend plus difficiles à repérer.

Ai phishing et attaques de smirs

Une femme utilisant un ordinateur portable avec un e-mail de phishing à l'écran.
px.palette / / insta_photos / Shutterstock

Les attaques de phishing et de smishing ont toujours été un aliment de base parmi les escrocs. Ces attaques fonctionnent en imitant des entreprises bien connues, des agences gouvernementales et des services en ligne pour voler vos informations d’identification et se connecter à vos comptes. Bien que répandu, phishing et Les attaques de smirs peuvent être faciles à repérer. Les escrocs doivent souvent jouer au jeu des chiffres pour obtenir des résultats bénéfiques.

En revanche, les attaques de phisces de lance sont beaucoup plus efficaces. Ceux-ci obligent les attaquants à effectuer des recherches et une reconnaissance, fabriquant des e-mails et des SMS hautement personnalisés pour escroquer les gens. Cependant, les tentatives de phisces de lance sont rares dans nos boîtes de réception car elles exigent des efforts importants pour s’exécuter avec succès.

C’est là que l’IA devient dangereuse. Avec les chatbots d’IA et d’autres outils d’IA, les cybercriminels peuvent automatiser les attaques de lance de lance de masse sans dépenser des ressources importantes ou du temps pour financer la campagne. Des vidéos DeepFake d’individus importantes peuvent même être utilisées pour compléter l’attaque et rendre l’appât plus efficace. Dans un cas, YouTube a dû avertir les créateurs des escroqueries à phishing impliquant une vidéo profonde de son PDG, conçu pour les inciter à révéler leurs informations d’identification de connexion.

Escroqueries romanes

Homme et femme se cachant derrière le ballon avec un signe d'alerte d'escroquerie
Pixel / / Dg-studio / Shutterstock

Les escroqueries romanes manipulent les émotions pour gagner la confiance et l’affection avant d’exploiter les victimes. Contrairement aux escroqueries de phishing régulières, où l’ingénierie sociale se termine une fois que vous abandonnez vos références, les escroqueries romantiques nécessitent des escrocs pour passer des semaines, des mois ou même des années à établir des relations – une tactique connue sous le nom de boucherie de porcs. En raison de cet investissement de temps important, les cybercriminels ne peuvent cibler que quelques personnes à la fois, ce qui rend ces escroqueries encore plus rares que les attaques manuelles de phisseur de lance.

Cependant, les escrocs d’aujourd’hui peuvent utiliser des chatbots d’IA pour gérer une partie de la les aspects les plus longs des escroqueries romantiques—Chatting, envoyez des SMS, envoyant des photos et des vidéos et même passer des appels téléphoniques en direct. Étant donné que les cibles sont souvent émotionnellement vulnérables, elles peuvent même excuser les conversations générées par l’AI-AI comme originales ou même charmantes.

Le soleil écossais couvert un incident où un neuroscientifique a perdu des milliers de livres sur une arnaque romantique alimentée par l’IA. Le fraudeur a utilisé des vidéos et des messages générés par l’IA pour représenter de manière convaincante un intérêt romantique. Ils ont fabriqué une histoire élaborée sur le travail sur une plate-forme pétrolière offshore et ont utilisé la technologie Deepfake pour convaincre la victime de la légitimité de toutes leurs affirmations. Cette utilisation des outils d’IA nous avertit des tactiques évolutives que les escrocs utilisent pour exploiter les victimes.

Escroqueries de support client amélioré

Robot faisant des appels robo dans un centre d'appels géant
Gavin Phillips / Dall-E / Makeuseof

Les escroqueries du support client exploitent la confiance des gens dans les grandes marques en usurpant l’identité des bureaux d’aide. Ces escroqueries fonctionnent en envoyant de fausses alertes, des fenêtres contextuelles ou des e-mails affirmant que votre compte a été verrouillé, a besoin de vérification ou a un problème de sécurité urgent. Traditionnellement, les escrocs ont dû interagir manuellement avec les victimes, mais les chatbots d’IA ont changé cela.

Les escroqueries de support client alimenté par AI utilisent désormais des chatbots pour automatiser les conversations et les rendre plus convaincants. Avec des outils d’automatisation comme N8Nles chatbots peuvent répondre en temps réel, imiter les agents de soutien officiels et même les bases de connaissances de référence pour sembler plus légitimes. Ils mettent souvent en œuvre des tactiques de phishing en utilisant des sites Web clonés pour inciter les victimes à entrer leurs informations d’identification.

Les escroqueries de support de l’IA peuvent également aller dans l’autre sens. Les escrocs peuvent utiliser des agents d’IA pour contacter des services importants tels que les banques et les programmes gouvernementaux pour obtenir les données d’une cible ou même réinitialiser leurs informations d’identification de connexion.

Campagnes automatisées de désinformation et de frottis

Les pirates utilisent désormais des chatbots AI pour diffuser une désinformation à une échelle sans précédent. Ces robots génèrent et partagent de faux récits sur les réseaux sociaux, ciblant les flux d’actualités, les forums communautaires et les sections de commentaires avec des commentaires fabriqués. Contrairement aux campagnes de désinformation traditionnelles qui nécessitent des efforts manuels, les agents de l’IA peuvent désormais automatiser l’ensemble du processus, faisant répartir les fausses nouvelles plus rapidement et de manière plus convaincante.

En automatisant la création de vrais comptes de médias sociaux, les robots peuvent créer et interagir avec les publications pour répandre la désinformation. Et avec suffisamment de ces robots circulant sur Internet, ils peuvent transformer les personnes non informées ou indécises pour se ranger du côté de leur récit.

Au-delà de la simple tromperie, les pirates utilisent également des campagnes de désinformation de l’IA pour générer du trafic vers des sites Web d’escroquerie. Certains mélangent de fausses nouvelles avec des offres frauduleuses, incitant les victimes à cliquer sur des liens malveillants. Parce que ces postes deviennent souvent viraux avant que les vérificateurs de faits puissent réagir, de nombreuses personnes répartissent sans le savoir la désinformation.

Que puis-je faire pour me protéger?

e-mail de l'escroquerie Gmail
MMD Creative / Décrocheur

Bien que les pirates utilisent l’IA dans toutes sortes de tâches, ils ont trouvé le plus d’utilisation pour améliorer les attaques d’ingénierie sociale. Donc, pour défendre contre la plupart des escroqueries alimentées par l’IA, nous devons consacrer plus d’efforts à assurer notre vie privée et à vérifier la légitimité des messages, des publications et des profils.

  • Limiter le partage d’informations personnelles: Évitez d’être ciblé en premier lieu. Pensez avant de partager les détails personnels sur les réseaux sociaux. Les escrocs utilisent ces informations pour élaborer des attaques ciblées.
  • Être sceptique quant aux communications non sollicitées: Si vous obtenez un appel, un message ou un e-mail soudain de quelqu’un que vous ne connaissez pas, vérifiez avec vos amis, votre famille, vos collègues ou toute personne sur votre réseau avant de répondre.
  • Méfiez-vous de Deepfakes: Deep-Fakes générés par l’AI peut imiter les voix et les apparences. Soyez prudent des appels vidéo inattendus et des messages d’Entities de haut niveau. Vérifiez toujours les badges de vérification, le nombre de suiveurs / d’abonnés et les comptes interagissant avec leurs publications.
  • Pensez avant de cliquer: Les liens de phishing qui ressemblent à des messages normaux sont toujours répandus sur les réseaux sociaux. Le bouton de lecture a-t-il l’air plat ou édité? Le poste semble-t-il déroutant? Est-il censé ressembler à une vidéo mais aussi à une image et à un lien externe en même temps? Mieux vaut ne pas s’engager avec ces types de messages.
  • Vérifiez et vérifiez les actualités: Que vous souhaitiez éviter d’être induit en erreur par des escrocs ou de rester informé, vérifiez toujours les informations de plusieurs sources. Vérifiez également les sections de commentaires – les comptes ont souvent des noms d’utilisateur avec une combinaison de nombres à la fin pour assurer la disponibilité du nom d’utilisateur pendant la création.

Les chatbots AI offrent la commodité mais autonomisent également les pirates avec des outils d’escroquerie avancés. Mais rappelez-vous, de nombreuses escroqueries assistées par l’IA suivent toujours les mêmes schémas que les escroqueries traditionnelles. Ils sont JTHEY’REDER à repérer et plus répandus. En restant informé et en vérifiant toutes les interactions en ligne, vous vous défendez contre ces menaces en évolution.



Source link

Related post