Une hallucination, en intelligence artificielle, c'est quand un modèle de langage génère de l'information qui a l'air parfaitement crédible, mais qui est partiellement ou complètement fausse. Le modèle ne ment pas volontairement : il prédit la suite de mots la plus probable sans vraiment comprendre si ce qu'il dit est vrai ou non. Ça peut aller d'une date inexacte à l'invention complète d'une source scientifique ou d'une personne qui n'existe pas. C'est un des défis majeurs de l'IA générative en 2026, parce que le texte produit est souvent tellement fluide qu'on n'a aucune raison de douter.
💬 En termes simples
C'est comme un étudiant qui ne connaît pas la réponse à l'examen mais qui invente quelque chose avec une confiance absolue.
🎯 Exemple concret
Une IA qui cite une décision de la Cour suprême du Canada qui n'a jamais existé.
💡 Le saviez-vous ?
L'IA ne ment pas volontairement ; elle prédit juste le mot suivant le plus probable, même si c'est faux.
Reçois chaque semaine le meilleur de l'actualité IA, directement dans ta boîte.
Pas de pourriel, désinscription en 1 clic.
🔐 Connexion rapide
Entrez votre courriel pour recevoir un code à 6 chiffres.
Pas besoin de mot de passe ni d'inscription. Entrez votre courriel, recevez un code par courriel, et c'est tout !
✓
Paramètres de confidentialité
Nous utilisons des témoins (cookies) pour assurer le bon fonctionnement du site, analyser le trafic et personnaliser le contenu. Vous pouvez gérer vos préférences ci-dessous.
Politique de confidentialité