lundi 26 mai 2025 à 12:25
Co-fondatrice de Pinstrap. J’aime les pixels bien placés, les mots bien sentis, et les concepts qui laissent une trace (dans la tête, pas dans l’atmosphère). Dotée d'un humour indéniablement violent, je vulgarise les sujets complexes pour que chacun, même le plus éclaté, comprenne les sujets relatifs à la com'/ marketing/ design/ tech etc. En gros je vous facilite la vie et vos projets de fac ou d'école de commerce.
Une “hallucination IA”, ce n’est pas un robot qui dit que les éléphants roses existent, c’est pire. C’est quand un modèle, type ChatGPT (le roi du mytho), Gemini ou Claude, balance une info qui semble crédible mais est entièrement inventée. Un peu comme un collègue sûr de lui qui affirme que le Mexique est en Afrique avec un PowerPoint à l’appui, ou une affirmation historique de la bouche d’un américain.
Techniquement, on parle de génération non alignée avec les données sources. Selon Google Cloud (2024), une hallucination se produit quand un LLM (large language model) génère une sortie qui ne correspond pas à la vérité factuelle ou logique, tout en la formulant de manière extrêmement fluide, persuasive, et souvent sans hésitation.
Ce qui est terifiant, c’est que plus l’IA progresse, plus ses hallucinations deviennent indétectables. On ne parle plus d’erreurs grossières mais de données fictives bien présentées, d’études inventées avec DOI (Digital Object Identifier), de citations APA qui n’existent nulle part.
Une étude du MIT (2023) a montré que 43 % des utilisateurs humains ne sont pas capables de détecter une hallucination IA dans un texte bien structuré. Oui je viens d’inventer cette statistique mais ça aurait pu passer crème. Effrayant n’est ce pas ?
Contrairement à une appli qui plante parce qu’elle manque de mémoire, l’hallucination IA n’est pas un “bug” au sens classique du terme, mais plutôt un sous-produit logique d’un entraînement sur des milliards de paramètres, dans des corpus gigantesques avec des règles statistiques pas factuelles.
Les IA ne comprennent pas le monde, elles vont prédire le mot suivant, et si les données d'entraînement contiennent des imprécisions, des biais ou des vides elles remplissent les trous avec ce qui leur semble plausible.
Et la tendance est universelle, tout le monde y passe, Gemini, Claude, ChatGPT, Mistral... Tous les modèles sont affectés, avec des taux d’hallucination variant selon la tâche (résumé, traduction, rédaction scientifique, génération de code…). Ils ont aucune honte.
Prédictions qui sont incorrectes : un modèle d'IA peut effectivement prédire qu'un événement va avoir lieu, alors que dans la réalité, le concret, il en est très peu probable. À titre d’exemple, un modèle d'IA utilisé pour prédire la météo peut dire avec assurance qu'il pleuvra demain, alors que les prévisions météo excluent tout risque d'averse.
Faux positifs : il est possible et commun qu’un modèle d'IA identifie à tort un événement comme étant une menace. Il peut être utilisé pour la détection de fraude, et est même dans la capacité de signaler une transaction comme frauduleuse, alors que ce n'est absolument pas le cas. Ça ment sans vergogne.
Faux négatifs : un modèle d'IA peut ne pas identifier un événement comme étant une menace. Il faut savoir qu’un modèle d'IA utilisé pour détecter les cas de cancer peut ne pas parvenir à identifier une tumeur cancéreuse.
Le vrai danger, c’est l’illusion de la vérité, pire que l’erreur en elle-même. Une IA persuasive mais hallucinée est une fake news en costard-cravate, et encore ! Les hallucinations IA se propagent, et sont reprises dans d'autres contenus générés automatiquement, alimentant une boucle de désinformation algorithmique.
1 exemple parmi tant d’autres mais qui est assez récurrent :
Des étudiants citent des sources inventées par leur IA. On a plusieurs cas recensés où des travaux académiques contenaient des citations générées par des IA, telles que ChatGPT, qui étaient en réalité inexistantes. Ces “hallucinations” peuvent conduire à des accusations de plagiat ou de fraude académique. Exemple, un article souligne que l'utilisation de citations fictives générées par des IA est considérée comme une violation grave de l'intégrité académique, pouvant entraîner des sanctions sévères, y compris l'expulsion.
Oui… et non. Des solutions existent, mais aucune n’est infaillible. Selon Google Cloud, lorsque tu entraînes un modèle d'IA, il faut limiter le nombre de résultats qu'il peut prédire en utilisant une technique dite de “régularisation”. Cette technique pénalise le modèle pour les prédictions qui se révèlent trop démesurées. On évite alors le surapprentissage des données d'entraînement, qui entraînent la formulation de prédictions incorrectes.
RAG (Retrieval Augmented Generation) : méthode où l’IA va chercher dans une base de données vérifiée avant de répondre. Efficace, mais encore limité à certains cas d’usage (chercheurs affiliés à Google DeepMind et à l'Université du Michigan).
Fine-tuning contextuel : améliore la précision, mais ne supprime pas totalement le phénomène. Cela permet de continuer à affiner un modèle IA avec des données récentes, ce qui le rend efficace dans des environnements dynamiques. En plus, il prévient le sur-apprentissage “overfitting” in english, car l'ajustement des taux d'apprentissage va permettre au modèle de mieux généraliser.
Red teaming : stratégie de test par “attaque” (utiliser des requêtes piégeuses pour déceler les hallucinations), coûteux et long mais nécessaire.
Watermarking : signatures invisibles pour distinguer les sorties générées de celles humaines. En gros apposer un tatouage numérique sur les modèles de machine learning ou les jeux de données.
Discutons de vos besoins et voyons comment nous pouvons vous accompagner dans la réalisation de vos objectifs.