Introduction: le risque invisible
Les hallucinations, câest-Ă -dire des affirmations gĂ©nĂ©rĂ©es par un LLM mais factuellement incorrectes, comptent parmi les risques les plus critiques dans lâutilisation de lâIA gĂ©nĂ©rative (pour le thĂšme de la confiance, voir aussi mon autre article.)
Les systĂšmes RAG (Retrieval Augmented Generation), souvent prĂ©sentĂ©s comme solution contre les hallucinations, introduisent en rĂ©alitĂ© de nouvelles sources dâerreurs. Ils promettent dâappuyer leurs rĂ©ponses sur tes propres donnĂ©es fiables, mais peuvent malgrĂ© tout se tromper dangereusement.
La bonne nouvelle: les hallucinations ne sont pas une fatalitĂ© technologique. Elles sont avant tout un problĂšme de qualitĂ© des donnĂ©es et dâarchitecture, donc un problĂšme contrĂŽlable
Que sont les hallucinations et pourquoi sont-elles dangereuses?
On parle dâhallucination quand un LLM gĂ©nĂšre des faits incorrects, mais les prĂ©sente avec beaucoup de confiance et de conviction. Contrairement Ă une «simple» erreur, les hallucinations sont particuliĂšrement problĂ©matiques, car elles:
- semblent plausibles: la réponse paraßt parfaitement adaptée et sonne autoritaire.
- sont stylistiquement correctes: formulation, ton et structure paraissent professionnels.
- sont difficiles Ă repĂ©rer: mĂȘme des expert·e·s peuvent les manquer en lisant rapidement
- abusent de la confiance: les utilisateur·rice·s supposent que le systÚme se base sur des données vérifiées
Les exemples concrets ne manquent pas: sources inventées, articles de loi erronés ou étapes de processus entiÚrement imaginées.
Comment les hallucinations apparaissent-elles techniquement?
Un Large Language Model (LLM) fonctionne en prédisant le mot le plus probable à partir du contexte précédent. Son objectif est de fournir une réponse en évitant de dire «Je ne sais pas».
Cela crĂ©e un problĂšme fondamental: MĂȘme lorsque les informations nĂ©cessaires sont incomplĂštes, voire inexistantes, le modĂšle va produire une rĂ©ponse. Câest prĂ©cisĂ©ment lĂ que naissent les hallucinations.
Pour contrer cela de maniÚre systématique, deux stratégies de base existent:
-
Fournir du contexte:
En fournissant le bon contexte pertinent (par ex. via RAG), on augmente la probabilitĂ© que le modĂšle sâappuie sur des informations correctes et gĂ©nĂšre une rĂ©ponse correcte. -
Reconnaßtre les cas out-of-distribution / «Je ne sais pas»:
Quand une demande dĂ©passe le domaine de connaissances, le systĂšme doit le reconnaĂźtre et ne pas rĂ©pondre, plutĂŽt que dâinventer quelque chose de faux ou incertain.
SystÚmes RAG: promesses et réalité
Les systÚmes RAG sont censés adresser exactement ce problÚme. Leur logique:
- Au lieu de laisser le LLM répondre uniquement avec son «savoir appris du monde»,
- le systĂšme cherche dâabord dans une base de connaissances (spĂ©cifique au·à la client·e) les informations pertinentes
- et le LLM formule ensuite la réponse sur la base des documents trouvés et du prompt
Un RAG bien conçu peut réduire massivement les hallucinations.
Un RAG mal conçu ajoute de nouvelles sources dâerreurs et rend le dĂ©bogage bien plus difficile.
Sources typiques dâerreurs dans les systĂšmes RAG
ProblÚme 1: le retrieval échoue
Avant que le LLM ne rĂ©ponde, il doit recevoir les documents pertinents. Câest lĂ que beaucoup dâerreurs fondamentales se produisent:
Les informations pertinentes ne sont pas trouvées:
- Les algorithmes de recherche ne reconnaissent pas certains documents pourtant essentiels
- Du contenu important est cachĂ© dans des tableaux, des PDF ou des fichiers mal structurĂ©s et nâest pas ou mal capturĂ©
- Le contexte du LLM est saturĂ© dâinformations inutiles, les informations vraiment pertinentes se perdent
Des documents obsolÚtes ou non pertinents sont utilisés:
- Le systÚme récupÚre par exemple un communiqué de presse de 2019, totalement dépassé
- Des informations contradictoires provenant de sources diffĂ©rentes se retrouvent dans le mĂȘme contexte
Les particularités du domaine ne sont pas représentées:
- Les embeddings ne capturent pas des distinctions essentielles du domaine
Exemple: sur un site administratif, «sâannoncer» signifie presque toujours «annoncer son domicile Ă lâoffice des habitant·e·s», pas «sâinscrire Ă un cours de salsa».
RĂ©sultat: le LLM utilise un contexte faux ou incomplet â et hallucine en toute confiance.
ProblĂšme 2: lâĂ©tape de gĂ©nĂ©ration interprĂšte mal
MĂȘme si le retrieval fonctionne correctement et fournit les bons documents, le LLM peut mal interprĂ©ter lâinformation:
Mauvaise interprétation:
- Le LLM ne saisit pas les nuances dâun texte juridique
- Des conditions («Si X, alors Y») deviennent des rÚgles absolues
- Des exceptions sont ignorées ou trop généralisées
Combinaisons dâinformations inadmissibles:
- Le LLM combine des informations provenant de différents documents de maniÚre créative, mais incorrecte
- Il «dĂ©duit» B Ă partir de A alors que ce lien nâest pas valable
- Il tente de «mettre à jour» des informations obsolÚtes et se trompe
Compléments issus du savoir général:
- Le document trouvĂ© ne rĂ©pond quâen partie Ă la question
- Le LLM complÚte les parties manquantes avec son savoir général
- Le résultat est un mélange de faits vérifiés et de contenu inventé
Nous avons trÚs peu de contrÎle direct sur cette étape de génération. Nous pouvons seulement choisir un modÚle adapté et optimiser le prompt. Cela rend tout ce qui précÚde et suit encore plus important.
Trois stratégies essentielles pour réduire les risques
Si les hallucinations sont avant tout un problĂšme dâarchitecture et de qualitĂ© des donnĂ©es, alors on peut aussi les combattre de maniĂšre systĂ©matique. Trois stratĂ©gies sont, selon notre expĂ©rience, essentielles:
1. La qualité des données comme fondation
Un systÚme RAG est aussi bon que les données auxquelles il accÚde
Lâancien principe IT sâapplique parfaitement: Garbage in, garbage out.
Principes clés:
-
Alignement sur les besoins réels:
Tout ce qui se trouve sur lâintranet nâaide pas Ă rĂ©pondre aux questions des utilisateur·rice·s.
La base de connaissances doit sâaligner sur les cas dâusage, pas sur la structure de dossiers de lâorganisation. -
Enrichir les documents:
Les documents doivent souvent ĂȘtre dĂ©coupĂ©s pour entrer dans un LLM.
Du contexte se perd facilement Il doit ĂȘtre ajoutĂ© explicitement (mĂ©tadonnĂ©es, titres, champs de validitĂ©). -
Assurer lâactualitĂ© â Once Only:
Les informations doivent ĂȘtre gĂ©rĂ©es une seule fois, de maniĂšre centralisĂ©e.
Des copies multiples rendent la cohérence quasi impossible.
Pour un systĂšme RAG, cela signifie: des «single sources of truth», pas cinq versions lĂ©gĂšrement diffĂ©rentes du mĂȘme processus.
2. MĂ©canismes de fallback et logique dâincertitude
Un bon systÚme sait quand il ne sait pas et agit en conséquence.
Notre principe: mieux vaut un «Je ne peux pas tâaider» conservateur quâune rĂ©ponse inventĂ©e.
ConcrĂštement:
-
DĂ©finir des seuils dâincertitude:
- Seuils sur différentes étapes du retrieval (distance vectorielle, score de pertinence)
- En dessous: aucune rĂ©ponse, mais un message transparent pour lâutilisateur·rice
-
Routing pour les thĂšmes critiques:
- DĂ©terminer les thĂšmes «critiques» (impĂŽts, santĂ©, droit â dĂ©pend du·de la client·e).
- Pour ces thĂšmes: fallbacks prĂ©dĂ©finis, par ex. «Je ne peux pas calculer ta charge fiscale. Merci dâutiliser le calculateur officiel.»
-
Marquer clairement lâout-of-scope:
- Quand un sujet dĂ©passe la base de connaissances, le systĂšme doit le dire clairement â au lieu de rĂ©pondre avec du demi-savoir.
3. Donner du pouvoir aux utilisateur·rice·s, ne pas les tromper
MĂȘme si on pouvait rĂ©duire techniquement les hallucinations, le langage reste ambigu.
Exemple: «Mon chien mâa apportĂ© une balle. Je lâai shootĂ©e.», quoi exactement a Ă©tĂ© shootĂ©? Le langage nâest jamais 100 % clair.
Cela signifie: aucune question ne pourra jamais ĂȘtre rĂ©pondue 100 % correctement. Donc:
a) Indiquer les sources pour chaque réponse
- Montrer les documents utilisés
- Lier précisément (tableau, section, paragraphe)
- Indiquer quand une réponse combine plusieurs sources
b) Rendre visibles les confidence scores
- OĂč possible, indiquer de maniĂšre simple le niveau de confiance du systĂšme.
- Ă long terme: mieux quantifier et visualiser ces scores.
Entre-temps: mieux vaut un indicateur simple et honnĂȘte quâune prĂ©cision trompeuse.
c) Des disclaimers honnĂȘtes, pas du marketing
La meilleure technologie ne sert à rien si les utilisateur·rice·s font confiance aveuglément.
- Ăcrire clairement dans lâinterface: «Ce systĂšme peut se tromper.»
- Expliquer ce que le systĂšme peut faire et ce quâil ne peut pas
- Ăviter un discours marketing qui crĂ©e de fausses attentes
- Ăviter aussi le jargon juridique que personne ne lit
Lâobjectif: une communication honnĂȘte et comprĂ©hensible.
Une IA responsable, câest possible
Pour moi, trois points sont essentiels:
-
Les hallucinations sont contrĂŽlables:
Elles ne sont pas un destin inĂ©vitable, mais le rĂ©sultat de la qualitĂ© des donnĂ©es et de lâarchitecture. Les deux sont entre tes mains. -
La transparence vaut mieux que la perfection:
Tu ne pourras jamais éviter 100 % des hallucinations.
Mais tu peux concevoir ton systÚme pour que les utilisateur·rice·s puissent reconnaßtre, comprendre et gérer les erreurs. -
Câest aussi un sujet de management, pas seulement dâingĂ©nierie:
Les dĂ©cisions importantes (qualitĂ© des donnĂ©es, processus, responsabilitĂ©s) doivent ĂȘtre prises au niveau managĂ©rial, pas uniquement par lâĂ©quipe IT.
Lâutilisation de chatbots RAG comporte chances et risques.
Celles·ceux qui comprennent les risques et les adressent systĂ©matiquement peuvent saisir les opportunitĂ©s â de maniĂšre responsable et sĂ»re.