Imaginez-vous au volant de votre Tesla, l’autoroute défile, et vous tapez tranquillement un SMS à votre meilleur ami pour lui dire que vous arrivez dans dix minutes. Scène banale ? Sauf que vous roulez à 120 km/h et que, techniquement, votre voiture « conduit toute seule ». C’est exactement ce qu’Elon Musk vient de rendre possible… et de revendiquer publiquement.

Le 4 décembre 2025, le patron de Tesla a répondu sur X à un propriétaire surpris : la dernière mise à jour du Full Self-Driving (Supervised) n’affiche plus d’alerte quand on utilise son téléphone. Mieux : Musk affirme que c’est désormais autorisé « selon le contexte de la circulation environnante ».

Quand Tesla franchit (encore) la ligne rouge de la distraction au volant

Cette déclaration a mis le feu aux poudres. Parce qu’aux États-Unis, envoyer un texto au volant est interdit dans 48 États. Utiliser son téléphone à la main l’est dans 26 États. Et pourtant, la voiture la plus high-tech du marché semble dire : allez-y, on gère.

Comment en est-on arrivé là ? Retour sur une fonctionnalité qui fait trembler les régulateurs depuis des années.

Full Self-Driving : l’évolution d’un système toujours « supervisé »

Lancé en 2019, le Full Self-Driving était censé être la dernière étape avant la voiture 100 % autonome. Six ans plus tard, le nom n’a pas changé… mais la réalité non plus : on parle toujours d’un système de niveau 2 selon la classification SAE. Traduction : le conducteur doit rester attentif et prêt à reprendre la main à tout moment.

Petit historique rapide :

  • 2016 → Autopilot : mains obligatoirement sur le volant
  • 2020 → Première version FSD : mains toujours requises
  • 2023 → Suppression de la contrainte « mains sur le volant » si la caméra détecte le regard du conducteur
  • Décembre 2025 → Suppression des alertes lors de l’utilisation du téléphone « selon le contexte »

On passe d’une surveillance physique à une surveillance… contextuelle. Et c’est là que ça devient flou.

Que signifie vraiment « selon le contexte » ?

Elon Musk n’a donné aucune précision technique. On suppose que l’intelligence artificielle analyse la densité du trafic, la vitesse, la présence de piétons, etc. Si la situation est jugée « sûre », le système tolère que vous regardiez ailleurs.

Mais qui décide de ce qui est sûr ? L’IA de Tesla, entraînée sur des milliards de kilomètres… mais qui a déjà montré ses limites :

  • Plus de 50 signalements de feux rouges grillés (enquête NHTSA en cours)
  • Accidents mortels sous Autopilot où le conducteur regardait un film ou dormait
  • Enquête fédérale sur les performances en brouillard ou forte pluie

« Le problème n’est pas la technologie, c’est la confiance excessive qu’elle génère chez les conducteurs. »

Un ancien ingénieur Tesla, sous couvert d’anonymat, 2024

Légalement, c’est la zone grise absolue

En Californie, l’État qui héberge Tesla, la loi est claire : le conducteur doit rester capable de reprendre le contrôle immédiatement. Texter, même si la voiture « semble » gérer, reste une infraction.

Pire : le Department of Motor Vehicles californien est en train de juger si Tesla a menti pendant des années en parlant de « Full Self-Driving » alors que la fonction nécessitait une supervision humaine. Une suspension de licence de 30 jours minimum est sur la table.

En Europe ? La réglementation est encore plus stricte. L’UN-ECE exige que les systèmes de niveau 2 émettent une alerte toutes les 10 secondes maximum si les mains quittent le volant. La nouvelle version FSD risque de ne jamais être homologuée sur le Vieux Continent.

Pourquoi Elon Musk prend-il ce risque énorme ?

Plusieurs hypothèses :

  • Stratégie de données : plus les conducteurs lâchent le volant, plus Tesla collecte de données « mains libres » pour entraîner son IA
  • Course à l’autonomie réelle : montrer que le système fonctionne même quand on ne regarde pas, c’est préparer le terrain au niveau 4/5
  • Provocation délibérée : forcer les régulateurs à clarifier les règles avant que Waymo, Cruise ou Zoox ne prennent trop d’avance

Quoi qu’il en soit, le message envoyé est clair : Tesla estime que son IA est déjà plus sûre que l’attention humaine dans certaines situations. Une affirmation que personne n’a encore prouvée scientifiquement.

Et les utilisateurs dans tout ça ?

Sur les forums Tesla et Reddit, c’est la fête. Beaucoup célèbrent la « liberté retrouvée ». D’autres, au contraire, trouvent ça terrifiant.

Un propriétaire de Model Y confiait récemment : « J’ai essayé. Sur autoroute déserte, c’est magique. Mais en ville, j’ai eu deux frayeurs en 10 minutes. Je préfère garder les mains sur le volant. »

Statistiquement, la distraction au volant cause 25 à 30 % des accidents aux États-Unis. Autoriser (même partiellement) l’usage du téléphone risque d’aggraver ce chiffre… ou de le faire baisser si l’IA est vraiment supérieure. On n’a pas encore les données.

Que va-t-il se passer maintenant ?

Plusieurs scénarios possibles :

ScénarioProbabilitéConséquences
Rappel massif et retour en arrièreFaibleTesla ne fait presque jamais machine arrière
Amende + injonction fédéraleMoyenneNHTSA peut forcer une mise à jour corrective
Nothing happens (pour l’instant)ÉlevéeAttente des premiers accidents médiatisés
Accident grave impliquant un textoInévitable à moyen termeConséquences judiciaires et boursières massives

En attendant, la communauté scientifique et les associations de sécurité routière sont vent debout. L’Insurance Institute for Highway Safety a déjà qualifié la décision de « profondément irresponsable ».

Conclusion : génie ou folie ?

Elon Musk a toujours fonctionné ainsi : avancer à marche forcée, briser les conventions, et demander pardon (ou pas) plus tard. Le Full Self-Driving version « texto autorisé » est peut-être le point de rupture.

Car cette fois, ce n’est plus une question de performances techniques. C’est une question de confiance societale. Peut-on accepter qu’une entreprise privée décide unilatéralement quand il est « safe » de ne plus regarder la route ?

La réponse appartient aux régulateurs, aux tribunaux… et malheureusement peut-être à la prochaine victime d’un accident où le conducteur aura fait confiance à une IA qui pensait que « le contexte était bon ».

En attendant, si vous avez une Tesla, le meilleur conseil reste celui qu’on donne depuis 2016 : gardez les yeux sur la route. Même si Elon vous dit le contraire.

avatar d’auteur/autrice
Steven Soarez
Passionné et dévoué, j'explore sans cesse les nouvelles frontières de l'information et de la technologie. Pour explorer les options de sponsoring, contactez-nous.