La veille
Aller au contenu principal

Attaque adversariale

Attaque adversariale

Attaque adversariale

Adversarial Attack

Terme IA Avancé 🛡️ Sécurité et éthique

📖 Définition

Une attaque adversariale consiste à manipuler délibérément les données d'entrée d'un modèle d'IA afin de le tromper et de provoquer des erreurs de prédiction. Ces perturbations sont souvent imperceptibles pour l'être humain mais déstabilisent le modèle. Les attaques peuvent cibler la reconnaissance d'images, le NLP ou la détection de fraude. Elles constituent un enjeu majeur de cybersécurité.

💬 En termes simples

Imaginez un faussaire qui modifie à peine un billet de banque canadien — un micro-détail invisible — mais qui suffit à tromper un guichet automatique. L'attaque adversariale fonctionne de la même manière : une modification infime qui induit le système d'IA en erreur.

🎯 Exemple concret

Une banque canadienne effectue des tests d'attaques adversariales sur son système de détection de fraude. Un constructeur automobile teste la robustesse de la conduite autonome face à des panneaux de signalisation modifiés. Un organisme gouvernemental audite la sécurité de son système de reconnaissance faciale.

💡 Le saviez-vous ?

Des chercheurs ont démontré qu'il est possible de tromper un système de reconnaissance d'images en modifiant un seul pixel. Le domaine a donné naissance à l'entraînement adversarial, où l'on expose volontairement un modèle à des exemples manipulés pour le rendre plus robuste.

🔐 Connexion rapide

Entrez votre courriel pour recevoir un code à 6 chiffres.

Pas besoin de mot de passe ni d'inscription. Entrez votre courriel, recevez un code par courriel, et c'est tout !

⚠️