Introduction: le risque invisible

Les hallucinations, c’est-Ă -dire des affirmations gĂ©nĂ©rĂ©es par un LLM mais factuellement incorrectes, comptent parmi les risques les plus critiques dans l’utilisation de l’IA gĂ©nĂ©rative (pour le thĂšme de la confiance, voir aussi mon autre article.)

Les systĂšmes RAG (Retrieval Augmented Generation), souvent prĂ©sentĂ©s comme solution contre les hallucinations, introduisent en rĂ©alitĂ© de nouvelles sources d’erreurs. Ils promettent d’appuyer leurs rĂ©ponses sur tes propres donnĂ©es fiables, mais peuvent malgrĂ© tout se tromper dangereusement.

La bonne nouvelle: les hallucinations ne sont pas une fatalitĂ© technologique. Elles sont avant tout un problĂšme de qualitĂ© des donnĂ©es et d’architecture, donc un problĂšme contrĂŽlable

Que sont les hallucinations et pourquoi sont-elles dangereuses?

On parle d’hallucination quand un LLM gĂ©nĂšre des faits incorrects, mais les prĂ©sente avec beaucoup de confiance et de conviction. Contrairement Ă  une «simple» erreur, les hallucinations sont particuliĂšrement problĂ©matiques, car elles:

  • semblent plausibles: la rĂ©ponse paraĂźt parfaitement adaptĂ©e et sonne autoritaire.
  • sont stylistiquement correctes: formulation, ton et structure paraissent professionnels.
  • sont difficiles Ă  repĂ©rer: mĂȘme des expert·e·s peuvent les manquer en lisant rapidement
  • abusent de la confiance: les utilisateur·rice·s supposent que le systĂšme se base sur des donnĂ©es vĂ©rifiĂ©es

Les exemples concrets ne manquent pas: sources inventées, articles de loi erronés ou étapes de processus entiÚrement imaginées.

Comment les hallucinations apparaissent-elles techniquement?

Un Large Language Model (LLM) fonctionne en prédisant le mot le plus probable à partir du contexte précédent. Son objectif est de fournir une réponse en évitant de dire «Je ne sais pas».

Cela crĂ©e un problĂšme fondamental: MĂȘme lorsque les informations nĂ©cessaires sont incomplĂštes, voire inexistantes, le modĂšle va produire une rĂ©ponse. C’est prĂ©cisĂ©ment lĂ  que naissent les hallucinations.

Pour contrer cela de maniÚre systématique, deux stratégies de base existent:

  1. Fournir du contexte:
    En fournissant le bon contexte pertinent (par ex. via RAG), on augmente la probabilitĂ© que le modĂšle s’appuie sur des informations correctes et gĂ©nĂšre une rĂ©ponse correcte.

  2. Reconnaßtre les cas out-of-distribution / «Je ne sais pas»:
    Quand une demande dĂ©passe le domaine de connaissances, le systĂšme doit le reconnaĂźtre et ne pas rĂ©pondre, plutĂŽt que d’inventer quelque chose de faux ou incertain.

SystÚmes RAG: promesses et réalité

Les systÚmes RAG sont censés adresser exactement ce problÚme. Leur logique:

  1. Au lieu de laisser le LLM répondre uniquement avec son «savoir appris du monde»,
  2. le systĂšme cherche d’abord dans une base de connaissances (spĂ©cifique au·à la client·e) les informations pertinentes
  3. et le LLM formule ensuite la réponse sur la base des documents trouvés et du prompt

Un RAG bien conçu peut réduire massivement les hallucinations.
Un RAG mal conçu ajoute de nouvelles sources d’erreurs et rend le dĂ©bogage bien plus difficile.

Sources typiques d’erreurs dans les systùmes RAG

ProblÚme 1: le retrieval échoue

Avant que le LLM ne rĂ©ponde, il doit recevoir les documents pertinents. C’est lĂ  que beaucoup d’erreurs fondamentales se produisent:

Les informations pertinentes ne sont pas trouvées:

  • Les algorithmes de recherche ne reconnaissent pas certains documents pourtant essentiels
  • Du contenu important est cachĂ© dans des tableaux, des PDF ou des fichiers mal structurĂ©s et n’est pas ou mal capturĂ©
  • Le contexte du LLM est saturĂ© d’informations inutiles, les informations vraiment pertinentes se perdent

Des documents obsolÚtes ou non pertinents sont utilisés:

  • Le systĂšme rĂ©cupĂšre par exemple un communiquĂ© de presse de 2019, totalement dĂ©passĂ©
  • Des informations contradictoires provenant de sources diffĂ©rentes se retrouvent dans le mĂȘme contexte

Les particularités du domaine ne sont pas représentées:

  • Les embeddings ne capturent pas des distinctions essentielles du domaine
    Exemple: sur un site administratif, «s’annoncer» signifie presque toujours «annoncer son domicile Ă  l’office des habitant·e·s», pas «s’inscrire Ă  un cours de salsa».

RĂ©sultat: le LLM utilise un contexte faux ou incomplet – et hallucine en toute confiance.

ProblĂšme 2: l’étape de gĂ©nĂ©ration interprĂšte mal

MĂȘme si le retrieval fonctionne correctement et fournit les bons documents, le LLM peut mal interprĂ©ter l’information:

Mauvaise interprétation:

  • Le LLM ne saisit pas les nuances d’un texte juridique
  • Des conditions («Si X, alors Y») deviennent des rĂšgles absolues
  • Des exceptions sont ignorĂ©es ou trop gĂ©nĂ©ralisĂ©es

Combinaisons d’informations inadmissibles:

  • Le LLM combine des informations provenant de diffĂ©rents documents de maniĂšre crĂ©ative, mais incorrecte
  • Il «dĂ©duit» B Ă  partir de A alors que ce lien n’est pas valable
  • Il tente de «mettre Ă  jour» des informations obsolĂštes et se trompe

Compléments issus du savoir général:

  • Le document trouvĂ© ne rĂ©pond qu’en partie Ă  la question
  • Le LLM complĂšte les parties manquantes avec son savoir gĂ©nĂ©ral
  • Le rĂ©sultat est un mĂ©lange de faits vĂ©rifiĂ©s et de contenu inventĂ©

Nous avons trÚs peu de contrÎle direct sur cette étape de génération. Nous pouvons seulement choisir un modÚle adapté et optimiser le prompt. Cela rend tout ce qui précÚde et suit encore plus important.

Trois stratégies essentielles pour réduire les risques

Si les hallucinations sont avant tout un problĂšme d’architecture et de qualitĂ© des donnĂ©es, alors on peut aussi les combattre de maniĂšre systĂ©matique. Trois stratĂ©gies sont, selon notre expĂ©rience, essentielles:

1. La qualité des données comme fondation

Un systÚme RAG est aussi bon que les données auxquelles il accÚde
L’ancien principe IT s’applique parfaitement: Garbage in, garbage out.

Principes clés:

  • Alignement sur les besoins rĂ©els:
    Tout ce qui se trouve sur l’intranet n’aide pas Ă  rĂ©pondre aux questions des utilisateur·rice·s.
    La base de connaissances doit s’aligner sur les cas d’usage, pas sur la structure de dossiers de l’organisation.

  • Enrichir les documents:
    Les documents doivent souvent ĂȘtre dĂ©coupĂ©s pour entrer dans un LLM.
    Du contexte se perd facilement Il doit ĂȘtre ajoutĂ© explicitement (mĂ©tadonnĂ©es, titres, champs de validitĂ©).

  • Assurer l’actualitĂ© – Once Only:
    Les informations doivent ĂȘtre gĂ©rĂ©es une seule fois, de maniĂšre centralisĂ©e.
    Des copies multiples rendent la cohérence quasi impossible.
    Pour un systĂšme RAG, cela signifie: des «single sources of truth», pas cinq versions lĂ©gĂšrement diffĂ©rentes du mĂȘme processus.

2. MĂ©canismes de fallback et logique d’incertitude

Un bon systÚme sait quand il ne sait pas et agit en conséquence.
Notre principe: mieux vaut un «Je ne peux pas t’aider» conservateur qu’une rĂ©ponse inventĂ©e.

ConcrĂštement:

  • DĂ©finir des seuils d’incertitude:

    • Seuils sur diffĂ©rentes Ă©tapes du retrieval (distance vectorielle, score de pertinence)
    • En dessous: aucune rĂ©ponse, mais un message transparent pour l’utilisateur·rice
  • Routing pour les thĂšmes critiques:

    • DĂ©terminer les thĂšmes «critiques» (impĂŽts, santĂ©, droit – dĂ©pend du·de la client·e).
    • Pour ces thĂšmes: fallbacks prĂ©dĂ©finis, par ex. «Je ne peux pas calculer ta charge fiscale. Merci d’utiliser le calculateur officiel.»
  • Marquer clairement l’out-of-scope:

    • Quand un sujet dĂ©passe la base de connaissances, le systĂšme doit le dire clairement – au lieu de rĂ©pondre avec du demi-savoir.

3. Donner du pouvoir aux utilisateur·rice·s, ne pas les tromper

MĂȘme si on pouvait rĂ©duire techniquement les hallucinations, le langage reste ambigu.
Exemple: «Mon chien m’a apportĂ© une balle. Je l’ai shootĂ©e.», quoi exactement a Ă©tĂ© shootĂ©? Le langage n’est jamais 100 % clair.

Cela signifie: aucune question ne pourra jamais ĂȘtre rĂ©pondue 100 % correctement. Donc:

a) Indiquer les sources pour chaque réponse

  • Montrer les documents utilisĂ©s
  • Lier prĂ©cisĂ©ment (tableau, section, paragraphe)
  • Indiquer quand une rĂ©ponse combine plusieurs sources

b) Rendre visibles les confidence scores

  • OĂč possible, indiquer de maniĂšre simple le niveau de confiance du systĂšme.
  • À long terme: mieux quantifier et visualiser ces scores.
    Entre-temps: mieux vaut un indicateur simple et honnĂȘte qu’une prĂ©cision trompeuse.

c) Des disclaimers honnĂȘtes, pas du marketing

La meilleure technologie ne sert à rien si les utilisateur·rice·s font confiance aveuglément.

  • Écrire clairement dans l’interface: «Ce systĂšme peut se tromper.»
  • Expliquer ce que le systĂšme peut faire et ce qu’il ne peut pas
  • Éviter un discours marketing qui crĂ©e de fausses attentes
  • Éviter aussi le jargon juridique que personne ne lit
    L’objectif: une communication honnĂȘte et comprĂ©hensible.

Une IA responsable, c’est possible

Pour moi, trois points sont essentiels:

  1. Les hallucinations sont contrĂŽlables:
    Elles ne sont pas un destin inĂ©vitable, mais le rĂ©sultat de la qualitĂ© des donnĂ©es et de l’architecture. Les deux sont entre tes mains.

  2. La transparence vaut mieux que la perfection:
    Tu ne pourras jamais éviter 100 % des hallucinations.
    Mais tu peux concevoir ton systÚme pour que les utilisateur·rice·s puissent reconnaßtre, comprendre et gérer les erreurs.

  3. C’est aussi un sujet de management, pas seulement d’ingĂ©nierie:
    Les dĂ©cisions importantes (qualitĂ© des donnĂ©es, processus, responsabilitĂ©s) doivent ĂȘtre prises au niveau managĂ©rial, pas uniquement par l’équipe IT.

L’utilisation de chatbots RAG comporte chances et risques.
Celles·ceux qui comprennent les risques et les adressent systĂ©matiquement peuvent saisir les opportunitĂ©s – de maniĂšre responsable et sĂ»re.