La couverture du magazine Vogue du mois d’août 2025 a suscité plus de perplexité que d’admiration. Pour illustrer un dossier sur la mode et l’intelligence artificielle, la rédaction a fait le choix de représenter une femme entièrement générée par IA, posant comme un mannequin en chair et en os, maquillée, habillée, stylisée… mais fictive. Si l’initiative se voulait avant-gardiste, elle a déclenché une vague de réactions négatives de la part de lecteurs, d’internautes et de professionnels du secteur.
La polémique, rapportée notamment par Le Huffington Post, s’est rapidement cristallisée sur plusieurs points. D’abord, sur le fond : fallait-il vraiment donner à un personnage généré par algorithme la place habituellement réservée à des mannequins humains, déjà confrontés à une précarité croissante dans leur métier ? Ensuite, sur la forme : si l’intention artistique ne fait pas débat, c’est le manque de transparence qui dérange. Le magazine n’a pas clairement indiqué que l’image était artificielle sur la couverture, laissant certains lecteurs croire à une photo traditionnelle.
Ce flou entretient une confusion dont les conséquences vont bien au-delà de l’esthétique. En créant des images parfaites, lisses et irréelles, les IA risquent de renforcer des standards déjà inaccessibles dans le monde de la mode. Si les retouches numériques ont longtemps été pointées du doigt, l’arrivée de personnages intégralement fictifs ouvre une nouvelle ère : celle où l’humain pourrait devenir secondaire dans des campagnes pourtant destinées à vendre des produits à des humains.
Les critiques s’élèvent aussi du côté des créateurs et des photographes, nombreux à dénoncer une forme de « trahison silencieuse ». Pour eux, il ne s’agit pas d’un simple essai artistique, mais bien d’un signal envoyé par une des plus grandes références de la mode mondiale : celui d’un remplacement programmé. Car derrière le mannequin généré par IA, il n’y a pas de styliste, pas de maquilleur, pas de photographe… seulement une machine, quelques prompts, et une ligne éditoriale validant l’opération.
Plus inquiétant encore, cette tendance s’inscrit dans un contexte plus large de recours massif à l’IA dans les industries culturelles. Cinéma, publicité, jeux vidéo : les exemples se multiplient où des visages synthétiques remplacent des acteurs ou modèles bien réels. Or, cette substitution, même partielle, interroge sur la place qu’on souhaite encore accorder à la création humaine dans un paysage saturé de contenus produits par des algorithmes.
Certains défenseurs de l’innovation y voient une opportunité de créativité démultipliée, un moyen de repousser les limites de l’imagination. Mais à quel prix ? L’image de ce mannequin parfait, qui ne vieillit pas, ne revendique rien, et ne demande pas de salaire, résonne comme un fantasme d’industrie plus qu’un progrès social.
La question n’est pas de bannir l’IA des couvertures ou des campagnes, mais de poser des limites claires à son usage. Un personnage artificiel peut-il représenter une marque sans mention explicite ? Doit-on légiférer sur les mentions obligatoires de contenu généré ? Et surtout, comment préserver la diversité des corps, des origines et des récits dans un monde visuel où l’IA tend à uniformiser tout ce qu’elle touche ?
Le cas Vogue révèle ainsi une tension croissante entre avancée technologique et responsabilité éditoriale. Dans un secteur comme la mode, dont l’impact culturel est considérable, chaque image compte. Utiliser un mannequin IA n’est pas neutre. Cela reflète une vision du monde où l’humain devient optionnel, où la perfection est simulée, et où l’émotion est remplacée par l’esthétique calculée.
Face à cette nouvelle donne, les rédactions, les marques, mais aussi les pouvoirs publics devront s’interroger : jusqu’où sommes-nous prêts à aller dans la virtualisation du réel ? Et que souhaitons-nous dire du monde à travers les images que nous produisons et consommons ?