Vous souvenez-vous de cette sensation un peu étrange quand vous passiez en mode vocal sur ChatGPT ? Ce grand cercle bleu qui apparaissait, cette interface totalement séparée du fil de discussion… On avait l’impression de changer d’application. Et si vous ratiez une phrase, impossible de la relire sans tout quitter. Frustrant, non ?
Le 25 novembre 2025, OpenAI a décidé de mettre fin à cette gymnastique inutile. La firme de Sam Altman vient discrètement de déployer ce que beaucoup considéraient comme l’évolution la plus attendue depuis le lancement de GPT-4o : le mode vocal n’existe plus en tant que mode séparé.
ChatGPT Voice : enfin une expérience vraiment humaine
Terminé le saut brutal entre deux interfaces. Désormais, quand vous activez la voix, vous restez exactement dans votre conversation habituelle. Vous parlez, ChatGPT écoute, répond à l’oral et affiche le texte en temps réel. Vous pouvez relire ce qu’il vient de dire, voir les images qu’il génère, consulter les cartes, les tableaux… tout cela sans jamais quitter le fil.
Cette mise à jour peut paraître anodine. Elle ne l’est pas du tout.
Elle signe probablement la fin d’une ère : celle où les assistants vocaux étaient cantonnés à des expériences isolées, presque des gadgets. Et le début d’une autre : celle des véritables compagnons conversationnels hybrides.
Pourquoi cette mise à jour change absolument tout
Avant novembre 2025, utiliser la voix sur ChatGPT revenait à accepter une série de compromis :
- Impossible de voir le texte pendant qu’on parlait
- Pas de visuel (images, cartes, code…)
- Retour en arrière laborieux
- Sensation de déconnexion avec le reste de la conversation
- Expérience finalement assez… artificielle
Aujourd’hui, tous ces freins ont disparu. Le nouveau mode vocal (qui n’en est plus vraiment un) permet enfin :
- Une conversation fluide texte ↔ voix dans le même espace
- La visualisation instantanée de tout contenu généré
- Une relecture naturelle de l’historique
- Des échanges multimodaux réellement intégrés
- Une impression de dialogue avec une intelligence… presque humaine
« On voulait que parler à ChatGPT ressemble à parler à quelqu’un qui est en face de vous : vous entendez, vous voyez, vous pouvez interrompre, revenir en arrière… »
Un ingénieur d’OpenAI, sous couvert d’anonymat
Ce que ça change concrètement dans votre quotidien
Imaginez la scène.
Vous êtes en voiture, vous demandez à ChatGPT de vous créer un itinéraire optimisé avec pauses café sympas. Il vous répond à voix haute et affiche la carte avec les arrêts suggérés. Vous voyez tout, vous pouvez zoomer, demander une modification à la voix… sans jamais toucher l’écran.
Ou bien vous cuisinez. Vous avez les mains dans la pâte. Vous demandez la recette des lasagnes végétariennes les mieux notées. ChatGPT vous dicte les étapes et affiche la liste des ingrédients avec les quantités. Vous manquez d’aubergines ? Il vous propose une substitution instantanément, à l’oral et à l’écrit.
Ces scénarios, qui semblaient encore un peu futuristes il y a six mois, sont désormais la norme.
OpenAI vient-il de créer le premier « vrai » assistant personnel ?
Depuis l’arrivée de GPT-4o en mai 2024, on nous promettait une IA « multimodale native ». On y est presque.
Avec cette intégration parfaite de la voix dans l’interface principale, OpenAI franchit la dernière barrière psychologique : celle de la friction. Quand une technologie disparaît au profit de l’usage, c’est souvent là qu’elle devient incontournable.
On pense à ce qu’a fait Apple avec Siri dans les AirPods, ou Google avec Assistant dans les Pixel Buds. Mais là, on parle d’une IA capable de raisonner, de coder, d’analyser des documents, de générer des images… le tout en discutant naturellement.
| Fonctionnalité | Avant novembre 2025 | Après novembre 2025 |
| Interface pendant la voix | Cercle bleu séparé | Même chat que le texte |
| Texte visible en parlant | Non | Oui, en temps réel |
| Visuels (images, cartes…) | Impossible | Oui, intégrés |
| Relire l’historique | Retour forcé en mode texte | Fluidité totale |
| Expérience globale | Gadget impressionnant | Compagnon quotidien |
Et les concurrents dans tout ça ?
Chez Google, Gemini Live reste encore dans une interface dédiée sur mobile. Chez Anthropic, Claude n’a toujours pas de mode vocal grand public. Meta travaille sur son propre assistant vocal avec Llama, mais on est encore loin d’une telle intégration.
Quant à Grok d’xAI, son mode vocal (disponible uniquement sur les applications mobiles) reste très performant… mais toujours séparé du chat principal. Ironique, non ?
OpenAI vient de poser un standard que les autres vont devoir suivre rapidement.
Un petit détail qui a son importance
Si vous êtes nostalgique du grand cercle bleu (oui, ça existe), OpenAI a pensé à vous. Dans les réglages > Voice Mode, une option « Separate mode » vous permet de revenir à l’ancienne interface.
Mignonne attention. Mais soyons honnêtes : qui va vraiment l’activer ?
Vers où va-t-on maintenant ?
Cette mise à jour n’est probablement qu’une étape. On peut facilement imaginer la suite :
- Interruption naturelle en milieu de phrase (déjà partiellement là)
- Chuchotement et gestion du volume adaptatif
- Intégration dans les lunettes connectées type Ray-Ban Meta
- Mode « toujours à l’écoute » en arrière-plan (attention aux questions éthiques)
- Personnalités vocales multiples et émotions plus nuancées
Ce qui est certain, c’est que la frontière entre « discuter avec une IA » et « discuter avec quelqu’un » n’a jamais été aussi fine.
Et quelque part, c’est à la fois fascinant… et un peu troublant.
« Le jour où on oubliera qu’on parle à une machine, c’est là que tout commencera vraiment. »
Sam Altman, quelques mois avant cette mise à jour
Ce jour est peut-être arrivé plus tôt que prévu.
La mise à jour est d’ores et déjà disponible sur iOS, Android et web. Si vous ne l’avez pas encore, pensez à mettre à jour votre application.
Et la prochaine fois que vous parlerez à ChatGPT, regardez bien l’écran.
Vous ne verrez plus jamais votre assistant de la même façon.