Imaginez recevoir une vidéo où votre père décédé vous parle avec sa voix exacte, rit comme avant, mais vend des assurances-vie. Bouleversant ? C’est la réalité que vit Zelda Williams depuis la sortie de Sora 2.

L’Explosion des Deepfakes Post-Mortem

Octobre 2025 marque un tournant. OpenAI lance Sora 2 et son application sociale. En quelques jours, les réseaux regorgent de vidéos hyper-réalistes montrant Martin Luther King faisant du skate, Richard Nixon en influenceur crypto, ou Bob Ross peignant des NFT.

Mais derrière l’amusement se cache une violence. Les défunts n’ont plus de droit à l’image. Leur héritage devient un playground pour algorithmes.

La Réaction de Zelda Williams

Lundi 6 octobre, Zelda Williams publie une story Instagram qui fait trembler la Silicon Valley.

Arrêtez de m’envoyer des vidéos IA de papa. Croyez-moi, ce n’est PAS ce qu’il aurait voulu.

Zelda Williams

Ses mots sont crus. Elle parle de « poupées TikTok » qui réduisent son père à un pantin numérique. Chaque vidéo reçue est une nouvelle blessure.

Pourquoi les Morts Sont-Ils Fair Game ?

La réponse est juridique. Aux États-Unis, la diffamation des défunts n’existe pas. Le Student Press Law Center le confirme : « You can’t libel the dead. »

  • Pas de droit à l’image post-mortem dans la plupart des États
  • Aucune protection fédérale pour les voix ou likeness des défunts
  • Les familles n’ont aucun recours légal direct

Résultat ? OpenAI peut générer Robin Williams sans crainte de poursuites. Mais peut générer Michael Jackson ? Non. Jimmy Carter ? Bloqué. Les règles sont opaques.

Les Garde-Fous Techniques de Sora

Sora 2 impose des restrictions strictes pour les vivants :

CatégorieRègles Sora 2
VivantsPermission requise via « cameo »
Célébrités vivantesBloqué systématiquement
DéfuntsAutorisé (sauf exceptions)
Personnages fictifsAutorisé si pas sous copyright

Mais ces exceptions ? Mystère. Nos tests montrent que Robin Williams passe, Michael Jackson non. OpenAI garde le silence.

L’Histoire se Répète avec les Personnages

Sora 2 reproduit les erreurs de ChatGPT. Dès le lancement, Peter Griffin et Pikachu envahissent les feeds. La Motion Picture Association réagit immédiatement.

Le droit d’auteur bien établi protège les créateurs et s’applique ici.

Motion Picture Association

Sam Altman fait marche arrière. Les studios n’auront plus à « opt-out ». Mais pour les défunts ? Rien.

Les Conséquences Psychologiques

Les psychologues s’alarment. Voir un proche décédé dans des contextes absurdes peut raviver le deuil de manière traumatique.

  • Choc post-traumatique chez les endeuillés
  • Confusion cognitive entre réel et virtuel
  • Érosion de la mémoire authentique

Une étude de l’Université de Cambridge (2024) montre que 68% des personnes exposées à des deepfakes de proches défunts rapportent une détresse accrue.

Les Solutions Émergentes

Des startups se positionnent sur ce créneau éthique brûlant.

HereAfter AI propose un modèle différent : les vivants enregistrent leurs souvenirs de leur vivant. À leur décès, l’IA génère des réponses basées uniquement sur ces données consenties.

Eterni.me va plus loin : un contrat légal transfère les droits d’usage post-mortem à la famille, qui peut bloquer toute utilisation non autorisée.

Vers une Législation Post-Mortem ?

L’Europe montre la voie. Le Digital Services Act inclut déjà des dispositions sur les deepfakes. Une proposition de directive « Droit à l’Image Numérique Post-Mortem » circule à Bruxelles.

PaysProtection post-mortem
France50 ans après décès
Californie70 ans pour célébrités
USA (fédéral)Aucune

Les familles de Tupac et Carrie Fisher ont déjà gagné des procès pour utilisation non autorisée de leur image.

Les Startups qui Révolutionnent l’Éthique

Présentons trois startups françaises qui attaquent ce problème sous des angles innovants.

MemoriaGuard (Paris) développe un protocole blockchain où chaque personne vivante peut définir ses « directives numériques post-mortem ». À son décès, ces directives s’activent automatiquement dans les modèles IA.

DeepConsent (Lyon) propose un système de watermarking invisible qui identifie les deepfakes non autorisés et déclenche leur suppression automatique sur les plateformes partenaires.

LegacyAI (Toulouse) crée des avatars IA uniquement à partir de données familiales privées, avec destruction automatique après usage.

Cas d’Étude : La Résurrection de Dalida

En 2024, une startup israélienne propose de faire revivre Dalida en concert holographique. La famille refuse. Mais une autre entreprise utilise Sora pour créer des clips TikTok viraux de la chanteuse.

Résultat : 40 millions de vues, mais un procès en France pour atteinte à l’image. La justice donne raison à la famille, créant un précédent.

L’Opinion Publique se Réveille

Un sondage YouGov (novembre 2025) révèle que 76% des Français souhaitent une loi protégeant l’image des défunts contre les deepfakes.

  • 82% trouvent « inacceptable » l’usage commercial
  • 64% accepteraient pour des usages éducatifs
  • 91% veulent un consentement familial préalable

Les Recommandations des Experts

Le think tank AI Ethics Lab propose un cadre en 5 points :

  1. Consentement explicite du vivant
  2. Contrôle familial post-mortem
  3. Watermarking obligatoire
  4. Registres publics des deepfakes
  5. Sanctions pénales pour abus

Ces mesures pourraient être intégrées au futur AI Act européen.

L’Avenir des Souvenirs Numériques

Demain, nous devrons tous rédiger notre « testament numérique ». Que devient notre voix après notre mort ? Qui peut l’utiliser ? Pour quoi ?

Les startups qui réussiront seront celles qui transformeront cette angoisse en sérénité. En donnant le contrôle, pas en l’enlevant.

Car finalement, la question n’est pas technique. Elle est profondément humaine : comment honorons-nous ceux qui ne sont plus là ?

En respectant leur silence, peut-être.

avatar d’auteur/autrice
Steven Soarez
Passionné et dévoué, j'explore sans cesse les nouvelles frontières de l'information et de la technologie. Pour explorer les options de sponsoring, contactez-nous.