Attaque adversariale
Adversarial Attack
📖 Définition
💬 En termes simples
Imaginez un faussaire qui modifie à peine un billet de banque canadien — un micro-détail invisible — mais qui suffit à tromper un guichet automatique. L'attaque adversariale fonctionne de la même manière : une modification infime qui induit le système d'IA en erreur.
🎯 Exemple concret
Une banque canadienne effectue des tests d'attaques adversariales sur son système de détection de fraude. Un constructeur automobile teste la robustesse de la conduite autonome face à des panneaux de signalisation modifiés. Un organisme gouvernemental audite la sécurité de son système de reconnaissance faciale.
💡 Le saviez-vous ?
Des chercheurs ont démontré qu'il est possible de tromper un système de reconnaissance d'images en modifiant un seul pixel. Le domaine a donné naissance à l'entraînement adversarial, où l'on expose volontairement un modèle à des exemples manipulés pour le rendre plus robuste.