La alucinacion de IA ocurre cuando los modelos de lenguaje producen texto que suena plausible pero es factualmente incorrecto. Esto sucede porque los LLMs predicen secuencias de palabras probables en lugar de verificar hechos. Las tecnicas para reducir las alucinaciones incluyen RAG (fundamentar respuestas en datos reales), fine-tuning, prompting de cadena de pensamiento y respuestas basadas en citas.







