L'hallucination IA se produit quand les modeles de langage produisent du texte plausible mais factuellement faux. Cela arrive parce que les LLMs predisent des sequences de mots probables plutot que de verifier les faits. Les techniques pour reduire les hallucinations incluent le RAG, le fine-tuning et le raisonnement en chaine de pensee.








