DeepDream : Quand l'Intelligence Artificielle de Google se met à Halluciner

7 min Vincent Oliviero
DeepDream : Quand l'Intelligence Artificielle de Google se met à Halluciner
Sommaire de l'article

Si vous étiez sur internet autour de l’année 2015, vous avez forcément croisé ces images dérangeantes et fascinantes : des paysages urbains qui fondent en kaléidoscopes, des nuages qui se transforment en museaux de chiens truffés d’yeux de reptiles, et des tableaux classiques devenus des cauchemars psychédéliques.

Toutes ces images provenaient d’un programme de Google sobrement intitulé DeepDream.

Aujourd’hui, en 2026, au milieu des images photoréalistes parfaites générées par MidJourney ou Flux, les clichés de DeepDream semblent être une étrange relique du passé. Pourtant, ce petit programme a été un moment clé dans l’histoire de la technologie : c’est la première fois que l’être humain a pu regarder à l’intérieur de la “boîte noire” d’une intelligence artificielle.

En bref : DeepDream est un programme expérimental de vision par ordinateur développé par Google (Alexander Mordvintsev) en 2015. Au lieu de demander à une IA d’identifier une image en minimisant ses erreurs (comme d’habitude), le programme lui demande de sur-amplifier ce qu’elle croit reconnaître. Cela crée un effet de paréidolie algorithmique (l’IA hallucine des formes). Le biais d’entraînement massif sur des races de chiens a provoqué ces fameuses images “mutantes” remplies de canidés. C’est le parent philosophique de l’art génératif moderne.

Qu’est-ce que DeepDream (et pourquoi Google l’a créé) ?

Dans les années 2010, le grand défi pour des entreprises comme Google ou Facebook était la Vision par Ordinateur (Computer Vision). Ils nourrissaient d’immenses réseaux de neurones complexes avec des millions de photos pour que l’ordinateur apprenne à reconnaître automatiquement un chat, une voiture ou un humain.

Le problème de ces “réseaux de neurones profonds” (Deep Learning), c’est l’effet Boîte Noire. Les ingénieurs savaient que le réseau fonctionnait (il reconnaissait bien la voiture), mais incapable de comprendre comment la machine prenait sa décision, ni quel détail de l’image (une roue, un phare ?) elle regardait vraiment.

Pour comprendre ce qui se passait dans la cervelle de cette IA, un ingénieur de Google, Alexander Mordvintsev, a eu une idée de génie, qu’il a nommée “Inceptionnisme” (bientôt rebaptisé DeepDream).

Comment fonctionne l’hallucination algorithmique ?

La logique normale d’une IA de vision est de réduire le bruit (trouve le chien dans l’herbe). DeepDream fait l’inverse : il fait une boucle d’amplification.

On donne une image à l’IA et on lui dit : “Quoi que tu penses voir dans cette image, montre-m’en davantage.”

Concrètement, le processus ressemble à notre propre fonctionnement psychologique appelé paréidolie (notre tendance humaine à voir des visages humains dans la forme des nuages ou sur la surface de Mars). L’ordinateur va analyser l’image. Si un motif (un rocher, un arbre) ressemble vaguement de loin à un œil, le réseau va modifier légèrement les pixels de l’image pour que ce rocher ressemble encore plus à un œil.

L’image est soumise à nouveau à l’algorithme (une boucle de rétroaction). L’œil devient plus net, et soudain, avec l’œil, l’algorithme croit reconnaître un chien. Il ajoute un museau. Puis il recommence sur un autre bout de l’image.

Après 100 itérations de cette boucle d’amplification mathématique pure, un banal paysage de montagne se transforme en une hallucination lovecraftienne indescriptible.

Pourquoi toujours des chiens et des yeux ?

C’est la caractéristique la plus célèbre (et effrayante) de DeepDream. Quelle que soit l’image de départ (le ciel, votre propre portrait, une toile vierge avec du « bruit » gris), DeepDream finit inexorablement par y halluciner des visages hybrides de chiens, d’oiseaux et d’yeux. Pourquoi cette obsession canidés ?

La réponse ne relève pas de la biologie, mais de son système d’entraînement.

À l’époque, pour apprendre à reconnaître le monde, le réseau de Google avait été nourri avec le dataset (ensemble de données) de référence de la recherche académique : ImageNet. Or, il se trouve que ce jeu de données colossal de Stanford contenait une classification extrêmement détaillée… de 120 sous-espèces de chiens.

Ces centaines de milliers de photos de chiens ont sur-représenté la variable “chien” dans les poids statistiques de l’IA (le biais d’entraînement). Lorsque DeepDream est forcé de chercher des formes dans le chaos abstrait d’une photo, statistiquement, c’est la forme qu’il a “étudiée” en plus grande majorité qui remonte à la surface. Le réseau rêve donc de chiens, parce que son univers statistique est peuplé de chiens.

Pourquoi l’idée était un coup de génie

Ces cauchemars visuels ont eu une immense valeur scientifique au-delà des forums Reddit :

  • Ils ont permis de prouver ce sur quoi l’IA se basait. Mieux : s’ils demandaient d’amplifier une “haltère”, l’ordinateur dessinait des haltères, mais systématiquement avec un bras humain atrophié attaché au bout. Google a ainsi compris que l’IA ne savait pas ce qu’était une haltère seule, elle pensait qu’un bras faisait forcément partie de l’objet (car les photos sources présentaient toujours quelqu’un tenant le poids).
  • DeepDream a mis en lumière l’importance vitale d’un dataset équilibré pour éviter les biais cognitifs dans l’infrastructure mathématique (un enjeu éthique majeur dans la modération du LLM en 2026).

De DeepDream à l’Art de 2026

DeepDream est souvent considéré comme la grande explosion originelle de l’art génératif par intelligence artificielle. Pour la toute première fois, on n’utilisait pas l’intelligence artificielle pour résoudre un problème ou classer une donnée. On l’utilisait pour la dérégler volontairement dans un but purement abstrait et artistique.

Sans l’accueil foudroyant de DeepDream par le monde artistique et la culture web en 2015, les financements technologiques et l’engouement public n’auraient probablement jamais bifurqué de manière si accélérée vers la création visuelle pour aboutir au perfectionnement absolu qui règne aujourd’hui sur nos créations Midjourney et DALL-E.


FAQ — Questions historiques sur DeepDream

DeepDream est-il encore accessible à tester en 2026 ?

Oui. S’il n’est plus développé sous sa forme originale expérimentale, son code (qui a été totalement open-sourcé par Google) a été repris sur des dizaines de sites web et générateurs en ligne (simplement appelés Deep Dream Generators). Vous pouvez toujours y uploader vos propres photos pour les faire “halluciner” par de vieux réseaux de calculs.

Pourquoi les images de DeepDream font-elles souvent peur ?

C’est un phénomène psychologique appelé l‘“Uncanny Valley” (la Vallée de l’Étrange). Puisque l’algorithme identifie et accentue principalement les traits caractéristiques nécessaires à la reconnaissance basique (des pupilles, des yeux, un motif de pelage) sans aucune véritable compréhension sémantique de l’objet (combien de pattes a un chien et où elles s’insèrent), le résultat est à mi-chemin entre le reconnaissable familier et la tératologie monstrueuse, ce qui déclenche un malaise instinctif chez l’humain.

Est-ce que DeepDream fonctionne comme Midjourney ou DALL-E ?

Pas du tout. DeepDream n’est pas un modèle Text-to-Image (qui part d’un texte et du bruit pour débruiter et créer une image). C’est un modèle préexistant de reconnaissance visuelle que l’on passe simplement en “marche arrière” de manière déréglée pour qu’il surligne ce qu’il identifiait d’habitude correctement. MidJourney de son côté crée l’ensemble d’une architecture à pixel selon votre intention.

Une IA peut-elle vraiment rêver ou halluciner ?

Non. Le choix des termes est purement de l’anthropomorphisme de la part des ingénieurs de Google, pour du marketing et de la vulgarisation. Les “rêves” de la machine n’ont aucune composante subconsciente ou onirique. Il s’agit strictement d’activation mathématique de filtres de “convolution” d’un réseau artificiel poussés en “overdrive”.

Qui a inventé DeepDream ?

DeepDream a été créé en grande majorité par le chercheur et ingénieur chez Google Alexander Mordvintsev. L’idée a été explorée en collaboration avec d’autres pionniers du “Deep Learning” comme Christopher Olah et Mike Tyka en juillet 2015.


Ce qu’il faut retenir

Si on se penche, 10 ans plus tard en 2026, sur la page Wikipédia de DeepDream ou sur les vieux dossiers d’explication de l’algorithme, on réalise que c’était en fait un signal d’alarme magnifique.

Google voulait s’assurer que sa machine s’appuyait sur de vrais éléments objectifs pour reconnaître son environnement. En lui demandant de nous montrer comment elle voyait le monde, elle nous a retourné des chiens-monstres cauchemardesques liés à ses propres biais d’apprentissage massifs.

DeepDream fut la première grande leçon publique d’éthique de la donnée : un algorithme n’invente jamais son comportement de zéro, il ne fait qu’amplifier ce dont l’être humain l’a gavé.

Articles liés