Los modelos fundacionales son modelos a gran escala entrenados con datos diversos y no etiquetados mediante autosupervision. Sirven como base que puede ajustarse para tareas especificas. Los ejemplos incluyen GPT-4, Claude, Llama y Stable Diffusion. El termino fue acunado por investigadores de Stanford para enfatizar como estos modelos forman la base de muchas aplicaciones de IA.











