Cheat SheetsCheat Sheet IAIntermédiaire

RAG Cheat Sheet : chunking, retrieval, citations, evaluation et erreurs à éviter

Cheat sheet RAG complète pour concevoir un système plus fiable : pipeline, chunking, recherche, citations, évaluation, observabilité et arbitrage RAG vs fine-tuning.

14 minMis à jour le 30 mars 20264 sources
RAG Cheat Sheet : chunking, retrieval, citations, evaluation et erreurs à éviter

Pour qui

  • Équipes IA, produit et knowledge management
  • Entreprises qui veulent un assistant sur leurs documents
  • Freelances et intégrateurs qui construisent du RAG client

À utiliser pour

  • Choisir entre RAG, base de connaissance et fine-tuning
  • Concevoir un pipeline retrieval fiable
  • Améliorer la qualité avant de changer de modèle

Version PDF

Une vraie feuille de référence, pas une impression sale de page web.

La version PDF est pensée pour lecture, partage interne, impression et revue rapide. C'est le format qu'on peut transmettre à un lead tech, un PM, ou un client sans perdre la structure.

Version PDF

Télécharger la fiche en format propre.

Recevez un accès immédiat à une version PDF imprimable et propre de RAG Cheat Sheet : chunking, retrieval, citations, evaluation et erreurs à éviter, conçue pour le partage interne, la revue et la sauvegarde.

Ce que vous débloquez
  • Version print-friendly avec hiérarchie claire
  • Checklist, erreurs fréquentes et FAQ propres à exporter
  • Ouverture directe du document prêt à enregistrer en PDF

Pas de spam. Le PDF s'ouvre dans un nouvel onglet prêt à enregistrer en PDF.

Sheet view

La fiche elle-même

01

Module

1. Quand faire du RAG et quand ne pas en faire

Le RAG est utile quand la connaissance change, doit être citée, ou ne peut pas être mémorisée proprement dans le modèle.

Utilisez le RAG quand :

  • la base documentaire change régulièrement
  • vous avez besoin de citations
  • vous ne voulez pas re-entraîner un modèle
  • la vérité métier vit dans des docs, procédures, bases et tickets

N'utilisez pas le RAG comme solution par défaut quand :

  • la logique est déterministe et tient en règles
  • vous avez surtout besoin d'actions, pas de recherche
  • votre jeu de connaissances est minuscule et stable

RAG vs fine-tuning

BesoinRAGFine-tuning
connaissance à jourfortfaible
citationsfortfaible
adaptation de style/comportementmoyenfort
mise à jour rapidefortfaible
maintenance inframoyenélevé

Dans la majorité des cas entreprise, on commence par :

  1. retrieval propre
  2. citations
  3. evaluation

... avant de parler fine-tuning.

02

Module

2. Pipeline RAG minimal propre

Si votre pipeline n'est pas lisible en six étapes, il est probablement déjà trop flou.

Pipeline de base :

  1. ingestion
  2. nettoyage
  3. chunking
  4. embedding / indexation
  5. retrieval
  6. génération avec citations

La plupart des problèmes apparaissent dans les étapes 2 à 5, pas à l'étape 6.

Ce qu'il faut stocker

  • texte nettoyé
  • métadonnées
  • source d'origine
  • version / date
  • identifiant de chunk

Ce qu'il faut pouvoir tracer

  • requête utilisateur
  • chunks récupérés
  • score / rang
  • réponse finale
  • citations
03

Module

3. Chunking et retrieval

Le chunking détermine souvent la qualité de votre RAG plus que le modèle lui-même.

Chunking : règles simples

  • chunk trop gros → retrieval flou
  • chunk trop petit → contexte fragmenté
  • overlap raisonnable → meilleure continuité

Le bon chunk dépend du type de document :

TypeStratégie
procéduressections courtes avec titres
contrats / docs longsdécoupe structurée par clauses ou sous-parties
FAQ / ticketsunités plus courtes
documentation techniquechunking par bloc logique ou fonctionnel

Retrieval

Le retrieval doit idéalement combiner :

  • recherche sémantique
  • signaux keyword / lexical quand utile
  • filtres metadata

La règle pratique :

  • top-k trop haut = bruit
  • top-k trop bas = manque de couverture

Il faut donc tester, pas deviner.

04

Module

4. Citations et évaluation

Un bon RAG ne donne pas seulement une réponse. Il montre d'où elle vient et comment vous mesurez sa fiabilité.

Les citations servent à :

  • augmenter la confiance
  • faciliter la relecture humaine
  • réduire les hallucinations gratuites
  • aider au debug

Anthropic recommande explicitement d'utiliser la feature de citations plutôt qu'une simple imitation par prompt quand c'est possible.

Les métriques minimales

  • pertinence des chunks récupérés
  • exactitude factuelle
  • couverture
  • présence de citation valide
  • hallucination

Questions utiles pour vos tests :

  • le bon document est-il récupéré ?
  • le bon passage est-il récupéré ?
  • la réponse s'appuie-t-elle sur ce passage ?
  • la citation aide-t-elle vraiment à vérifier la réponse ?
05

Module

5. Les erreurs qui ruinent 80 % des projets RAG

Un RAG mauvais n'est pas un RAG trop simple. C'est un RAG mal instrumenté.

Erreurs fréquentes :

  • ingestion sale
  • métadonnées absentes
  • versioning inexistant
  • chunking arbitraire
  • retrieval sans filtres
  • aucune mesure
  • aucune citation
  • aucune revue des cas ratés

Le bon réflexe si la qualité est mauvaise :

  1. regarder les chunks récupérés
  2. regarder le top-k
  3. regarder les filtres metadata
  4. regarder le prompt final
  5. seulement ensuite changer de modèle

Checklist

Ce qu'il faut verrouiller

  • Décider si le besoin relève vraiment du RAG
  • Nettoyer et structurer la donnée avant indexation
  • Choisir une stratégie de chunking adaptée au type de document
  • Conserver source, date et métadonnées pour chaque chunk
  • Activer ou générer de vraies citations
  • Mesurer retrieval, factualité et hallucination
  • Revoir les cas ratés avant de changer de modèle

Erreurs fréquentes

Ce qui casse la qualité

  • Traiter tous les documents avec le même chunking
  • Ne pas garder la provenance exacte des passages
  • Monter le top-k au lieu de corriger le retrieval
  • Tester la réponse finale sans auditer les chunks récupérés
  • Confondre assistant documentaire et agent opérationnel

FAQ

Questions fréquentes

RAG ou fine-tuning : par quoi commencer ?

Dans la plupart des cas entreprise, commencez par le RAG. Il est plus rapide à mettre à jour, plus explicable, et bien meilleur pour citer des sources documentaires.

Quelle est la première chose à debug si un RAG répond mal ?

Le retrieval. Regardez les chunks réellement récupérés avant de blâmer le modèle.

Faut-il toujours afficher des citations ?

Pour un assistant métier ou documentaire, oui autant que possible. Elles améliorent la confiance, le debug et la révision humaine.

Sources

Références utilisées