Imaginez recevoir une vidéo où votre père décédé vous parle avec sa voix exacte, rit comme avant, mais vend des assurances-vie. Bouleversant ? C’est la réalité que vit Zelda Williams depuis la sortie de Sora 2.
L’Explosion des Deepfakes Post-Mortem
Octobre 2025 marque un tournant. OpenAI lance Sora 2 et son application sociale. En quelques jours, les réseaux regorgent de vidéos hyper-réalistes montrant Martin Luther King faisant du skate, Richard Nixon en influenceur crypto, ou Bob Ross peignant des NFT.
Mais derrière l’amusement se cache une violence. Les défunts n’ont plus de droit à l’image. Leur héritage devient un playground pour algorithmes.
La Réaction de Zelda Williams
Lundi 6 octobre, Zelda Williams publie une story Instagram qui fait trembler la Silicon Valley.
Arrêtez de m’envoyer des vidéos IA de papa. Croyez-moi, ce n’est PAS ce qu’il aurait voulu.
Zelda Williams
Ses mots sont crus. Elle parle de « poupées TikTok » qui réduisent son père à un pantin numérique. Chaque vidéo reçue est une nouvelle blessure.
Pourquoi les Morts Sont-Ils Fair Game ?
La réponse est juridique. Aux États-Unis, la diffamation des défunts n’existe pas. Le Student Press Law Center le confirme : « You can’t libel the dead. »
- Pas de droit à l’image post-mortem dans la plupart des États
- Aucune protection fédérale pour les voix ou likeness des défunts
- Les familles n’ont aucun recours légal direct
Résultat ? OpenAI peut générer Robin Williams sans crainte de poursuites. Mais peut générer Michael Jackson ? Non. Jimmy Carter ? Bloqué. Les règles sont opaques.
Les Garde-Fous Techniques de Sora
Sora 2 impose des restrictions strictes pour les vivants :
| Catégorie | Règles Sora 2 |
| Vivants | Permission requise via « cameo » |
| Célébrités vivantes | Bloqué systématiquement |
| Défunts | Autorisé (sauf exceptions) |
| Personnages fictifs | Autorisé si pas sous copyright |
Mais ces exceptions ? Mystère. Nos tests montrent que Robin Williams passe, Michael Jackson non. OpenAI garde le silence.
L’Histoire se Répète avec les Personnages
Sora 2 reproduit les erreurs de ChatGPT. Dès le lancement, Peter Griffin et Pikachu envahissent les feeds. La Motion Picture Association réagit immédiatement.
Le droit d’auteur bien établi protège les créateurs et s’applique ici.
Motion Picture Association
Sam Altman fait marche arrière. Les studios n’auront plus à « opt-out ». Mais pour les défunts ? Rien.
Les Conséquences Psychologiques
Les psychologues s’alarment. Voir un proche décédé dans des contextes absurdes peut raviver le deuil de manière traumatique.
- Choc post-traumatique chez les endeuillés
- Confusion cognitive entre réel et virtuel
- Érosion de la mémoire authentique
Une étude de l’Université de Cambridge (2024) montre que 68% des personnes exposées à des deepfakes de proches défunts rapportent une détresse accrue.
Les Solutions Émergentes
Des startups se positionnent sur ce créneau éthique brûlant.
HereAfter AI propose un modèle différent : les vivants enregistrent leurs souvenirs de leur vivant. À leur décès, l’IA génère des réponses basées uniquement sur ces données consenties.
Eterni.me va plus loin : un contrat légal transfère les droits d’usage post-mortem à la famille, qui peut bloquer toute utilisation non autorisée.
Vers une Législation Post-Mortem ?
L’Europe montre la voie. Le Digital Services Act inclut déjà des dispositions sur les deepfakes. Une proposition de directive « Droit à l’Image Numérique Post-Mortem » circule à Bruxelles.
| Pays | Protection post-mortem |
| France | 50 ans après décès |
| Californie | 70 ans pour célébrités |
| USA (fédéral) | Aucune |
Les familles de Tupac et Carrie Fisher ont déjà gagné des procès pour utilisation non autorisée de leur image.
Les Startups qui Révolutionnent l’Éthique
Présentons trois startups françaises qui attaquent ce problème sous des angles innovants.
MemoriaGuard (Paris) développe un protocole blockchain où chaque personne vivante peut définir ses « directives numériques post-mortem ». À son décès, ces directives s’activent automatiquement dans les modèles IA.
DeepConsent (Lyon) propose un système de watermarking invisible qui identifie les deepfakes non autorisés et déclenche leur suppression automatique sur les plateformes partenaires.
LegacyAI (Toulouse) crée des avatars IA uniquement à partir de données familiales privées, avec destruction automatique après usage.
Cas d’Étude : La Résurrection de Dalida
En 2024, une startup israélienne propose de faire revivre Dalida en concert holographique. La famille refuse. Mais une autre entreprise utilise Sora pour créer des clips TikTok viraux de la chanteuse.
Résultat : 40 millions de vues, mais un procès en France pour atteinte à l’image. La justice donne raison à la famille, créant un précédent.
L’Opinion Publique se Réveille
Un sondage YouGov (novembre 2025) révèle que 76% des Français souhaitent une loi protégeant l’image des défunts contre les deepfakes.
- 82% trouvent « inacceptable » l’usage commercial
- 64% accepteraient pour des usages éducatifs
- 91% veulent un consentement familial préalable
Les Recommandations des Experts
Le think tank AI Ethics Lab propose un cadre en 5 points :
- Consentement explicite du vivant
- Contrôle familial post-mortem
- Watermarking obligatoire
- Registres publics des deepfakes
- Sanctions pénales pour abus
Ces mesures pourraient être intégrées au futur AI Act européen.
L’Avenir des Souvenirs Numériques
Demain, nous devrons tous rédiger notre « testament numérique ». Que devient notre voix après notre mort ? Qui peut l’utiliser ? Pour quoi ?
Les startups qui réussiront seront celles qui transformeront cette angoisse en sérénité. En donnant le contrôle, pas en l’enlevant.
Car finalement, la question n’est pas technique. Elle est profondément humaine : comment honorons-nous ceux qui ne sont plus là ?
En respectant leur silence, peut-être.