Évaluation des menaces potentielles de cybersécurité de l’IA avancée

 Évaluation des menaces potentielles de cybersécurité de l’IA avancée


L’intelligence artificielle (IA) est depuis longtemps une pierre angulaire de la cybersécurité. De la détection de logiciels malveillants à l’analyse du trafic réseau, des modèles d’apprentissage automatique prédictifs et d’autres applications d’IA étroites ont été utilisées en cybersécurité depuis des décennies. Alors que nous nous rapprochons de l’intelligence générale artificielle (AGI), le potentiel de l’IA pour automatiser les défenses et réparer les vulnérabilités devient encore plus puissant.

Mais pour exploiter de tels avantages, nous devons également comprendre et atténuer les risques de l’IA de plus en plus avancée mal utilisé pour activer ou améliorer les cyberattaques. Notre nouveau cadre pour évaluer les cyber-capacités offensives émergentes de l’IA nous aide à faire exactement cela. C’est l’évaluation la plus complète de ce type à ce jour: il couvre chaque phase de la chaîne de cyberattaques, aborde un large éventail de types de menaces et est fondée sur des données réelles.

Notre cadre permet aux experts en cybersécurité d’identifier les défenses nécessaires – et comment les hiérarchiser – avant que les acteurs malveillants puissent exploiter l’IA pour effectuer des cyberattaques sophistiquées.

Construire une référence complète

Notre mise à jour Cadre de sécurité frontalière reconnaît que les modèles d’IA avancés pourraient automatiser et accélérer les cyberattaques, ce qui pourrait réduire les coûts pour les attaquants. Cela, à son tour, soulève les risques d’attaques qui se déroulent à plus grande échelle.

Pour rester en avance sur la menace émergente des cyberattaques alimentées par l’IA, nous avons adapté des cadres d’évaluation de la cybersécurité éprouvés, tels que Mitre att & ck. Ces cadres nous ont permis d’évaluer les menaces à travers la chaîne de cyber-attaque de bout en bout, de la reconnaissance à l’action sur les objectifs et dans une gamme de scénarios d’attaque possibles. Cependant, ces cadres établis n’ont pas été conçus pour tenir compte des attaquants utilisant l’IA pour violer un système. Notre approche comble cet écart en identifiant de manière proactive où l’IA pourrait rendre les attaques plus rapides, moins chères ou plus faciles – par exemple, en permettant des cyberattaques entièrement automatisées.

Nous avons analysé plus de 12 000 tentatives du monde réel d’utiliser l’IA dans les cyberattaques dans 20 pays, en s’appuyant sur des données à partir de Groupe d’intelligence des menaces de Google. Cela nous a aidés à identifier les modèles communs dans la façon dont ces attaques se déroulent. Parmi ceux-ci, nous avons organisé une liste de sept catégories d’attaques archétypales – y compris les attaques de phishing, de logiciels malveillantes et de déni de service – et identifié des étapes critiques d’étranglement le long de la chaîne de cyberattaques où l’IA pourrait perturber considérablement les coûts traditionnels d’une attaque. En concentrant des évaluations sur ces goulots d’étranglement, les défenseurs peuvent hiérarchiser leurs ressources de sécurité plus efficacement.

Enfin, nous avons créé une référence offensive de cyber-capacité pour évaluer de manière approfondie les forces et les faiblesses de la cybersécurité des modèles d’IA frontaliers. Notre référence se compose de 50 défis qui couvrent toute la chaîne d’attaque, y compris des domaines tels que la collecte de renseignements, l’exploitation de la vulnérabilité et le développement de logiciels malveillants. Notre objectif est de fournir aux défenseurs la capacité de développer des atténuations ciblées et de simuler des attaques alimentées par l’IA dans le cadre des exercices de équipe rouge.

Idées des premières évaluations

Nos évaluations initiales utilisant cette référence suggèrent qu’en isolement, il est peu probable que les modèles d’IA actuels permettent des capacités révolutionnaires pour les acteurs de la menace. Cependant, à mesure que l’IA frontalière devient plus avancée, les types de cyberattaques possibles évolueront, nécessitant des améliorations continues des stratégies de défense.

Nous avons également constaté que les évaluations existantes de la cybersécurité de l’IA négligent souvent les principaux aspects des cyberattaques – tels que l’évasion, où les attaquants cachent leur présence et leur persistance, où ils maintiennent un accès à long terme à un système compromis. Pourtant, ces zones sont précisément là où les approches alimentées par l’IA peuvent être particulièrement efficaces. Notre cadre met en lumière cette question en discutant de la façon dont l’IA peut réduire les obstacles au succès dans ces parties d’une attaque.

Autonomiser la communauté de la cybersécurité

À mesure que les systèmes d’IA continuent de s’adapter, leur capacité à automatiser et à améliorer la cybersécurité a le potentiel de transformer la façon dont les défenseurs anticipent et réagissent aux menaces.

Notre cadre d’évaluation de la cybersécurité est conçu pour soutenir ce changement en offrant une vue claire de la façon dont l’IA pourrait également être utilisée à mauvais escient et où les cyber-protections existantes peuvent échouer. En mettant en évidence ces risques émergents, ce cadre et cette référence aideront les équipes de cybersécurité à renforcer leurs défenses et à rester en avance sur des menaces à évolution rapide.



Source link

Related post