‍‍‍‍‍‍
New Branding!
Afffect Media devient VU Magazine
X

l’UE propose d’interdire les applications d’IA de “nudification”

Depuis quelques semaines, les régulateurs européens accélèrent sur une idée claire : interdire les applications capables de générer des images nues à partir de photos réelles.
Petit Jeu 🎮
ZIP
✦ Petit Jeu ✦
Niveau 1 / 5
Cases : 0 / 49
⏱ 0:00
💡 3 indices
🎉
Niveau terminé !

Découvrez toute l'actualité marketing dans notre podcast, La chronique Marketing.

L’Europe veut interdire les applications de “nudification” par IA

Le sujet sort des cercles spécialisés pour devenir un enjeu politique à part entière.

Depuis quelques semaines, les régulateurs européens accélèrent sur une idée claire : interdire les applications capables de générer des images nues à partir de photos réelles. Une position qui fait suite à plusieurs dérives récentes, amplifiées par certaines plateformes.

Comprendre la nudification

La nudification désigne l’utilisation de l’intelligence artificielle pour modifier une image afin de simuler la nudité d’une personne.

Le fonctionnement est direct. Une photo classique est envoyée dans un outil. L’IA génère ensuite une version modifiée, dans laquelle les vêtements sont supprimés et remplacés par un rendu artificiel du corps.

L’image est entièrement reconstruite par un modèle, souvent avec un niveau de réalisme suffisant pour semer le doute.

Le problème est immédiat. Ces contenus sont créés sans consentement, puis diffusés à grande échelle. Ils peuvent être utilisés pour nuire, harceler ou exposer des personnes publiquement.

Le rôle déclencheur de Grok

Ces outils existent depuis plusieurs années. Leur visibilité a récemment changé d’échelle.

En cause, l’intégration de capacités de génération d’images dans des outils grand public, notamment via X et son IA Grok.

Des utilisateurs ont rapidement compris qu’il était possible de détourner ces fonctionnalités pour générer des images suggestives, voire des faux nus, à partir de photos existantes.

En quelques jours, une vague de contenus deepfake à caractère sexuel a circulé sur la plateforme. Le phénomène a mis en lumière la facilité d’accès à ces usages et leur potentiel de diffusion.

Face à la polémique, des restrictions ont été mises en place. Elles restent partielles, certains détournements étant encore possibles.

Une réaction politique rapide

Le 26 mars, des législateurs européens ont soutenu une proposition visant à interdire ces applications.

L’objectif est clair : classer ces outils parmi les technologies à risque élevé, en raison de leur capacité à produire du contenu sensible sans contrôle.

Plusieurs arguments sont avancés :

  • création d’images intimes sans consentement
  • accessibilité immédiate de ces outils
  • diffusion rapide sur les plateformes
  • impact direct sur les victimes

Dans ce contexte, l’Union européenne envisage d’imposer des règles plus strictes à l’ensemble des acteurs de l’IA.

Des conséquences directes pour les plateformes

Si ces mesures sont adoptées, elles ne concerneront pas uniquement des applications isolées.

Toutes les plateformes proposant des outils de génération d’images ou de vidéos seront concernées. Cela inclut notamment Facebook, Instagram et TikTok.

Certaines entreprises pourraient être plus exposées que d’autres.

C’est notamment le cas de X, dont la stratégie repose en partie sur une approche plus permissive des contenus et sur un développement rapide des fonctionnalités liées à l’IA.

Cette situation pourrait conduire à des ajustements techniques, voire à la suppression de certaines fonctionnalités sur le territoire européen.

Un débat qui dépasse la nudification

Au-delà de ces applications, c’est une question plus large qui se pose.

Les outils de génération par IA deviennent accessibles à tous, avec un niveau de puissance inédit. Leur usage ne dépend plus uniquement de leurs créateurs, mais de millions d’utilisateurs.

Dans ce contexte, la régulation porte autant sur les usages que sur la technologie elle-même.

L’Union européenne cherche ici à fixer une limite claire. Non pas sur l’innovation, mais sur ce qui est considéré comme acceptable.

Lire davantage d'articles