Deepfake
Un deepfake est un contenu synthétique (vidéo, audio, image) généré par intelligence artificielle qui imite l'apparence ou la voix d'une personne réelle. Le terme combine "deep learning" et "fake". Depuis février 2025, l'IA Act européen impose une obligation de marquage pour ces contenus générés, sauf exceptions artistiques ou satiriques clairement identifiées.
Comment fonctionnent les deepfakes ?
Les deepfakes utilisent des réseaux de neurones profonds, notamment :
- GANs (Generative Adversarial Networks) : Deux réseaux s'affrontent pour créer des images réalistes
- Autoencoders : Apprennent à reconstruire des visages et peuvent échanger des caractéristiques
- Diffusion models : Génèrent des images progressivement à partir de bruit
- Voice cloning : Synthétisent une voix à partir d'échantillons audio
Types de deepfakes
| Type | Description | Technologies |
|---|---|---|
| Face swap | Remplacement du visage d'une personne par un autre | DeepFaceLab, FaceSwap |
| Lip sync | Synchronisation des lèvres avec un nouvel audio | Wav2Lip, SyncNet |
| Voice clone | Imitation de la voix d'une personne | ElevenLabs, Resemble.ai |
| Full body | Génération de vidéos complètes de personnes | Synthesia, HeyGen |
| Image génération | Création de photos réalistes de personnes fictives | Midjourney, DALL-E, Stable Diffusion |
Réglementation des deepfakes (IA Act)
L'IA Act classe les deepfakes dans la catégorie "risque limité" avec des obligations de transparence :
Obligations de marquage
- Les contenus générés par IA imitant des personnes réelles doivent être clairement identifiés
- L'utilisateur doit savoir qu'il regarde un contenu synthétique
- Le marquage doit être visible et compréhensible
Exceptions
- Œuvres artistiques clairement identifiées comme fiction
- Contenus satiriques ou parodiques évidents
- Usages à des fins de recherche
Sanctions
Le non-respect des obligations de transparence peut entraîner des amendes jusqu'à 15 millions d'euros ou 3% du CA mondial.
Usages légitimes des deepfakes
Tous les deepfakes ne sont pas malveillants. Des usages légitimes incluent :
- Marketing : Avatars de marque, vidéos personnalisées
- Formation : Simulations, e-learning avec présentateurs virtuels
- Divertissement : Effets spéciaux, doublage, rajeunissement d'acteurs
- Accessibilité : Traduction vidéo avec lip sync
- Commémoration : "Ressusciter" des personnages historiques (avec consentement des ayants droit)
Risques des deepfakes
- Désinformation : Fausses déclarations attribuées à des personnalités
- Fraude : Usurpation d'identité pour escroqueries
- Harcèlement : Contenus non consentis (pornographie)
- Manipulation politique : Influence sur les élections
- Atteinte à la réputation : Fausses vidéos compromettantes
Détection des deepfakes
Plusieurs méthodes permettent d'identifier les contenus générés :
- Analyse des incohérences (clignements, reflets, arrière-plan)
- Détection de patterns de génération IA
- Vérification des métadonnées
- Outils spécialisés (Microsoft Video Authenticator, Sensity AI)
- Watermarking invisible par les créateurs d'IA