RAG Cheat Sheet : chunking, retrieval, citations, evaluation et erreurs à éviter
Cheat sheet RAG complète pour concevoir un système plus fiable : pipeline, chunking, recherche, citations, évaluation, observabilité et arbitrage RAG vs fine-tuning.
Pour qui
- Équipes IA, produit et knowledge management
- Entreprises qui veulent un assistant sur leurs documents
- Freelances et intégrateurs qui construisent du RAG client
À utiliser pour
- Choisir entre RAG, base de connaissance et fine-tuning
- Concevoir un pipeline retrieval fiable
- Améliorer la qualité avant de changer de modèle
Version PDF
Une vraie feuille de référence, pas une impression sale de page web.
La version PDF est pensée pour lecture, partage interne, impression et revue rapide. C'est le format qu'on peut transmettre à un lead tech, un PM, ou un client sans perdre la structure.
Version PDF
Télécharger la fiche en format propre.
Recevez un accès immédiat à une version PDF imprimable et propre de RAG Cheat Sheet : chunking, retrieval, citations, evaluation et erreurs à éviter, conçue pour le partage interne, la revue et la sauvegarde.
- Version print-friendly avec hiérarchie claire
- Checklist, erreurs fréquentes et FAQ propres à exporter
- Ouverture directe du document prêt à enregistrer en PDF
Pas de spam. Le PDF s'ouvre dans un nouvel onglet prêt à enregistrer en PDF.
Sheet view
La fiche elle-même
Module
1. Quand faire du RAG et quand ne pas en faire
Le RAG est utile quand la connaissance change, doit être citée, ou ne peut pas être mémorisée proprement dans le modèle.
Utilisez le RAG quand :
- la base documentaire change régulièrement
- vous avez besoin de citations
- vous ne voulez pas re-entraîner un modèle
- la vérité métier vit dans des docs, procédures, bases et tickets
N'utilisez pas le RAG comme solution par défaut quand :
- la logique est déterministe et tient en règles
- vous avez surtout besoin d'actions, pas de recherche
- votre jeu de connaissances est minuscule et stable
RAG vs fine-tuning
| Besoin | RAG | Fine-tuning |
|---|---|---|
| connaissance à jour | fort | faible |
| citations | fort | faible |
| adaptation de style/comportement | moyen | fort |
| mise à jour rapide | fort | faible |
| maintenance infra | moyen | élevé |
Dans la majorité des cas entreprise, on commence par :
- retrieval propre
- citations
- evaluation
... avant de parler fine-tuning.
Module
2. Pipeline RAG minimal propre
Si votre pipeline n'est pas lisible en six étapes, il est probablement déjà trop flou.
Pipeline de base :
- ingestion
- nettoyage
- chunking
- embedding / indexation
- retrieval
- génération avec citations
La plupart des problèmes apparaissent dans les étapes 2 à 5, pas à l'étape 6.
Ce qu'il faut stocker
- texte nettoyé
- métadonnées
- source d'origine
- version / date
- identifiant de chunk
Ce qu'il faut pouvoir tracer
- requête utilisateur
- chunks récupérés
- score / rang
- réponse finale
- citations
Module
3. Chunking et retrieval
Le chunking détermine souvent la qualité de votre RAG plus que le modèle lui-même.
Chunking : règles simples
- chunk trop gros → retrieval flou
- chunk trop petit → contexte fragmenté
- overlap raisonnable → meilleure continuité
Le bon chunk dépend du type de document :
| Type | Stratégie |
|---|---|
| procédures | sections courtes avec titres |
| contrats / docs longs | découpe structurée par clauses ou sous-parties |
| FAQ / tickets | unités plus courtes |
| documentation technique | chunking par bloc logique ou fonctionnel |
Retrieval
Le retrieval doit idéalement combiner :
- recherche sémantique
- signaux keyword / lexical quand utile
- filtres metadata
La règle pratique :
- top-k trop haut = bruit
- top-k trop bas = manque de couverture
Il faut donc tester, pas deviner.
Module
4. Citations et évaluation
Un bon RAG ne donne pas seulement une réponse. Il montre d'où elle vient et comment vous mesurez sa fiabilité.
Les citations servent à :
- augmenter la confiance
- faciliter la relecture humaine
- réduire les hallucinations gratuites
- aider au debug
Anthropic recommande explicitement d'utiliser la feature de citations plutôt qu'une simple imitation par prompt quand c'est possible.
Les métriques minimales
- pertinence des chunks récupérés
- exactitude factuelle
- couverture
- présence de citation valide
- hallucination
Questions utiles pour vos tests :
- le bon document est-il récupéré ?
- le bon passage est-il récupéré ?
- la réponse s'appuie-t-elle sur ce passage ?
- la citation aide-t-elle vraiment à vérifier la réponse ?
Module
5. Les erreurs qui ruinent 80 % des projets RAG
Un RAG mauvais n'est pas un RAG trop simple. C'est un RAG mal instrumenté.
Erreurs fréquentes :
- ingestion sale
- métadonnées absentes
- versioning inexistant
- chunking arbitraire
- retrieval sans filtres
- aucune mesure
- aucune citation
- aucune revue des cas ratés
Le bon réflexe si la qualité est mauvaise :
- regarder les chunks récupérés
- regarder le top-k
- regarder les filtres metadata
- regarder le prompt final
- seulement ensuite changer de modèle
Checklist
Ce qu'il faut verrouiller
- ✓Décider si le besoin relève vraiment du RAG
- ✓Nettoyer et structurer la donnée avant indexation
- ✓Choisir une stratégie de chunking adaptée au type de document
- ✓Conserver source, date et métadonnées pour chaque chunk
- ✓Activer ou générer de vraies citations
- ✓Mesurer retrieval, factualité et hallucination
- ✓Revoir les cas ratés avant de changer de modèle
Erreurs fréquentes
Ce qui casse la qualité
- Traiter tous les documents avec le même chunking
- Ne pas garder la provenance exacte des passages
- Monter le top-k au lieu de corriger le retrieval
- Tester la réponse finale sans auditer les chunks récupérés
- Confondre assistant documentaire et agent opérationnel
FAQ
Questions fréquentes
RAG ou fine-tuning : par quoi commencer ?
Dans la plupart des cas entreprise, commencez par le RAG. Il est plus rapide à mettre à jour, plus explicable, et bien meilleur pour citer des sources documentaires.
Quelle est la première chose à debug si un RAG répond mal ?
Le retrieval. Regardez les chunks réellement récupérés avant de blâmer le modèle.
Faut-il toujours afficher des citations ?
Pour un assistant métier ou documentaire, oui autant que possible. Elles améliorent la confiance, le debug et la révision humaine.
Sources
Références utilisées
arXiv
Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks
https://arxiv.org/abs/2005.11401
OpenAI
File search
https://platform.openai.com/docs/guides/tools-file-search/
Anthropic
Search results
https://docs.anthropic.com/en/docs/build-with-claude/search-results
Anthropic
Citations
https://docs.anthropic.com/en/docs/build-with-claude/citations
