Les modeles de diffusion generent des images en partant d'un bruit aleatoire et en le debruitant progressivement en une image coherente. Ils alimentent des outils comme Stable Diffusion, DALL-E et Midjourney. Le processus implique une passe directe (ajout de bruit) et une passe inverse (suppression de bruit).








