Le codage des slopsquat et de l’ambiance peut augmenter le risque d’attaques alimentées par l’IA
Les chercheurs et les développeurs en matière de sécurité stimulent les alarmes sur «Slopsquatting», une nouvelle forme d’attaque de la chaîne d’approvisionnement qui exploite la désinformation générée par l’IA, communément appelée hallucinations. Comme les développeurs comptent de plus en plus sur des outils de codage comme GitHub Copilot, Chatgpt et Deepseek, les attaquants exploitent la tendance de l’IA à inventer des packages logiciels, incitant les utilisateurs à télécharger du contenu malveillant.
Qu’est-ce que Slopsquatting?
Le terme slopsquatting a été initialement inventé par Seth Larson, développeur de la Python Software Foundation, puis popularisé par le chercheur en sécurité technologique Andrew Nesbitt. Il fait référence aux cas où les attaquants enregistrent des packages de logiciels qui n’existent pas réellement mais sont suggérés par erreur par les outils d’IA; Une fois en direct, ces faux packages peuvent contenir du code nocif.
Si un développeur en installe l’un sans le vérifier – en faisant simplement confiance à l’IA – il peut introduire sans le savoir un code malveillant dans son projet, donnant un accès de porte dérobée aux pirates à des environnements sensibles.
Contrairement à la typosquat, où les acteurs malveillants comptent sur les erreurs d’orthographe humaine, Slopsquat repose entièrement sur les défauts et les développeurs de l’IA et les développeurs mal placés dans les suggestions automatisées.
Les packages logiciels hallucinés AI sont en augmentation
Ce problème est plus que théorique. Une récente étude conjointe des chercheurs de l’Université du Texas à San Antonio, Virginia Tech et l’Université d’Oklahoma ont analysé plus de 576 000 Code généré par l’AI Échantillons de 16 modèles de grande langue (LLMS). Ils ont constaté que près de 1 packages sur 5 suggérés par l’IA n’existait pas.
« Le pourcentage moyen de forfaits hallucinés est d’au moins 5,2% pour les modèles commerciaux et de 21,7% pour les modèles open source, y compris 205 474 exemples uniques de noms de packages hallucinés, soulignant encore la gravité et l’omniprésence de cette menace », » L’étude a révélé.
Encore plus préoccupant, ces noms hallucinés n’étaient pas aléatoires. Dans plusieurs séries utilisant les mêmes invites, 43% des packages hallucinés réapparaissent constamment, montrant à quel point ces hallucinations peuvent être prévisibles. Comme l’explique le socket de l’entreprise de sécurité, cette cohérence donne aux attaquants une feuille de route – ils peuvent surveiller le comportement d’IA, identifier les suggestions de répétitions et enregistrer ces noms de packages avant quiconque le fait.
L’étude a également noté des différences entre les modèles: Codellama 7b et 34b avaient les taux d’hallucination les plus élevés de plus de 30%; GPT-4 Turbo avait le taux le plus bas à 3,59%.
Comment le codage de l’ambiance pourrait augmenter ce risque de sécurité
Une tendance croissante appelée Vibe Coding, un terme inventé par le chercheur de l’IA, Andrej Karpathy, peut aggraver le problème. Il se réfère à un flux de travail où les développeurs décrivent ce qu’ils veulent et les outils d’IA génèrent le code. Cette approche s’appuie fortement sur la confiance – les développeurs copient souvent et collent la sortie de l’IA sans tout vérifier à double.
Dans cet environnement, les forfaits hallucinés deviennent des points d’entrée faciles pour les attaquants, en particulier lorsque les développeurs ignorent les étapes d’examen manuel et s’appuient uniquement sur les suggestions générées par l’IA.
Comment les développeurs peuvent se protéger
Pour éviter d’être victime de la tâche, les experts recommandent:
- Vérifier manuellement tous les noms de packages avant l’installation.
- Utilisation de package outils de sécurité qui scanne les dépendances pour les risques.
- Vérification des bibliothèques suspectes ou nouvelles.
- Éviter les commandes d’installation de copie directement à partir des suggestions d’IA.
En attendant, il y a de bonnes nouvelles: certains Modèles d’IA s’améliorent dans l’auto-politique. GPT-4 Turbo et Deepseek, par exemple, ont montré qu’ils peuvent détecter et signaler les packages hallucinés dans leur propre production avec plus de 75% de précision, selon les premiers tests internes.
