Attaquer les logiciels malveillants avec l’apprentissage automatique contradictoire avec Edward Raff

 Attaquer les logiciels malveillants avec l’apprentissage automatique contradictoire avec Edward Raff


Aujourd’hui, nous sommes rejoints par Edward Raff, scientifique en chef et chef du groupe de recherche sur l’apprentissage automatique de Booz Allen Hamilton. Les travaux d’Edward se trouvent à l’intersection de l’apprentissage automatique et de la cybersécurité, avec un intérêt particulier pour l’analyse et la détection des logiciels malveillants. Dans notre conversation, nous examinons l’évolution du ML adversaire au cours des dernières années avant de fouiller dans le papier récemment sorti d’Edward, Attaques de transfert contradictoires avec des données inconnues et un chevauchement des classes. Dans cet article, Edward et son équipe explorent l’utilisation d’attaques de transfert contradictoires et comment ils sont capables de réduire leur taux de réussite en simulant la disparité des classes. Enfin, nous parlons de nombreuses instructions futures pour les attaques contradictoires, y compris son intérêt pour les réseaux de neurones graphiques.



Source link

Related post