(P) Couchure: Regardez un modèle Pytorch précis de 98,9% s’effondrer à 27% avec un minuscule bruit adversaire (démo d’attaque FGSM)

J’ai construit un cahier Colab propre et coulable qui montre comment un CNN précis à 98% peut être trompé dans une classification erronée totale avec seulement quelques perturbations de niveau pixel à l’aide de FGSM. L’objectif est de faire une vulnérabilité contradictoire visuellement intuitif et susciter plus d’intérêt pour la robustesse de l’IA. 🔗 Github: https://github.com/divyanshusingh96/foolthemachine J’adorerais les pensées ou les suggestions sur l’extension plus loin! J’espère que vous en gagnerez quelque chose de précieux. Si vous aimez ce post, n’oubliez pas de lui donner un vote up et laissez un commentaire.
soumis par / u / mysterio_369 |