Imaginez une voix si humaine qu’un auditeur averti ne pourrait plus faire la différence avec une vraie personne. Et si cette prouesse technologique, réalisée par une startup créée il y a à peine huit mois, venait d’être avalée par l’un des géants du numérique ? C’est exactement ce qui s’est passé avec WaveForms, rachetée par Meta dans une opération aussi discrète que stratégique.

Une Acquisition Discrète mais Stratégique

Le 8 août 2025, The Information révélait que Meta avait acquis WaveForms, une jeune pousse spécialisée dans l’intelligence artificielle audio. Le montant de la transaction ? Non communiqué. Mais les indices sont nombreux : le site de la startup a disparu, son équipe semble en grande partie intégrée à Meta, et deux cofondateurs ont déjà pris leurs quartiers au sein de Superintelligence Labs, la nouvelle division IA ultra-prioritaire du groupe.

Cette opération n’est pas isolée. Elle s’inscrit dans une série d’acquisitions ciblées par Meta dans le domaine de l’audio génératif. Moins d’un mois plus tôt, l’entreprise avait déjà mis la main sur PlayAI. Deux rachats en si peu de temps : le message est clair. Meta veut dominer la prochaine frontière de l’interaction homme-machine : la voix.

WaveForms : Huit Mois pour Convaincre les Géants

Revenons huit mois en arrière. WaveForms n’existait pas encore publiquement. Fondée par trois talents de haut vol, la startup a pourtant réussi l’exploit de lever 40 millions de dollars auprès d’Andreessen Horowitz, valorisant l’entreprise à 160 millions de dollars pré-money selon PitchBook. Un tour de force rarissime pour une entreprise si jeune.

Mais qui sont ces fondateurs capables de séduire l’un des fonds les plus prestigieux de la Silicon Valley en un temps record ?

  • Alexis Conneau : ancien chercheur chez Meta et OpenAI, co-créateur des réseaux neuronaux derrière GPT-4o Advanced Voice Mode.
  • Coralie Lemaitre : ex-stratégiste publicitaire chez Google, experte en monétisation et scaling produit.
  • Kartikay Khandelwal : chief technologist, dont le rôle exact reste à confirmer chez Meta.

Avec un tel trio à sa tête, WaveForms n’était pas une startup comme les autres. Elle portait une ambition démesurée : résoudre le Speech Turing Test.

Le Speech Turing Test : Quand l’IA Parle Comme un Humain

Le concept n’est pas nouveau. Inspiré du célèbre test de Turing, le Speech Turing Test vise à déterminer si une voix générée par IA peut tromper un auditeur humain. WaveForms avait fait de cet objectif sa mission principale. Et pas n’importe comment.

Sur sa page LinkedIn (avant sa disparition), l’entreprise affichait clairement son credo :

Résoudre le Speech Turing Test pour créer des voix indistinguables des humaines.

WaveForms – Mission officielle

Mais WaveForms ne s’arrêtait pas là. La startup travaillait également sur un concept encore plus ambitieux : l’Emotional General Intelligence.

L’Emotional General Intelligence : Au-delà des Mots

Parler comme un humain, c’est une chose. Comprendre comme un humain en est une autre. C’est là qu’intervient l’Emotional General Intelligence, ou EGI. Ce framework vise à doter les IA d’une véritable conscience émotionnelle : reconnaître les nuances de ton, adapter la réponse en fonction de l’état psychologique de l’interlocuteur, gérer ses propres “émotions” dans une conversation.

Imaginez un assistant vocal qui détecte votre stress et baisse automatiquement le ton, ou qui rit naturellement à une blague. Ce n’est plus de la science-fiction. C’est ce que WaveForms développait en secret.

Et Meta veut cette technologie. Maintenant.

Superintelligence Labs : Le Nouveau QG de l’IA chez Meta

Depuis plusieurs mois, Mark Zuckerberg a fait de l’IA une priorité absolue. Exit les métavers en perte de vitesse, bonjour Superintelligence Labs. Cette division, créée ex nihilo, regroupe les meilleurs talents mondiaux en intelligence artificielle. Objectif : rattraper OpenAI, Google et Anthropic sur le terrain de l’IA générale.

L’acquisition de WaveForms s’inscrit parfaitement dans cette stratégie. Avec Alexis Conneau et Coralie Lemaitre déjà intégrés, Meta met la main sur :

  • Des modèles vocaux de pointe, entraînés sur des datasets propriétaires.
  • Une expertise rare en génération de parole expressive.
  • Des brevets en cours sur l’EGI et le Speech Turing Test.
  • Une équipe de 17 personnes (selon LinkedIn), probablement intégrée en totalité.

Mais pourquoi tant d’urgence ?

La Course à la Voix : Un Marché en Explosion

Le marché de l’audio IA est en train de devenir le prochain eldorado tech. Selon une étude de Grand View Research, il devrait atteindre 15,5 milliards de dollars d’ici 2030, avec un TCAC de 27,5 %. Les applications sont infinies :

DomaineApplicationExemple
Assistants vocauxInteraction naturelleMeta AI sur WhatsApp
Création de contenuDoublage automatiquePodcasts multilingues
AccessibilitéLecture pour malvoyantsVoix personnalisées
Jeux vidéoPNJ expressifsDialogues dynamiques
SantéThérapie vocaleIA empathique

Meta ne veut pas rater ce train. Surtout pas face à des concurrents comme ElevenLabs, qui lève des centaines de millions, ou OpenAI, qui intègre déjà des voix ultra-réalistes dans ChatGPT.

Alexis Conneau : Le Cerveau derrière la Voix

Impossible de parler de WaveForms sans s’attarder sur Alexis Conneau. Ce chercheur franco-américain est une star discrète de l’IA. Chez OpenAI, il a co-développé les modèles neuronaux de GPT-4o Advanced Voice Mode, la fonctionnalité qui a bluffé des millions d’utilisateurs par sa fluidité et son expressivité.

Son départ d’OpenAI pour fonder WaveForms avait déjà fait des vagues. Son retour chez Meta – où il avait travaillé auparavant – boucle la boucle. Et renforce considérablement les capacités vocales du groupe.

La voix est l’interface du futur. Celui qui la maîtrise contrôlera l’attention des utilisateurs.

Alexis Conneau (attribué)

Et les 14 Autres Employés dans Tout Ça ?

Une question reste en suspens : que deviennent les 14 autres membres de l’équipe WaveForms ? TechCrunch a contacté l’entreprise (sans réponse). Mais plusieurs indices suggèrent une intégration massive :

  • Le site waveforms.ai redirige vers une page d’erreur 404.
  • Les profils LinkedIn mentionnent déjà Meta comme employeur pour plusieurs ingénieurs.
  • La pratique des “acqui-hires” est courante dans la Silicon Valley.

Dans 90 % des cas, ce type d’acquisition se solde par une absorption complète de l’équipe. Les fondateurs touchent un bonus important, les employés conservent leur salaire (souvent augmenté), et Meta gagne un savoir-faire immédiat.

PlayAI + WaveForms = ?

Revenons sur la chronologie. En juillet 2025, Meta acquiert PlayAI. En août, WaveForms. Deux startups audio en un mois. Coïncidence ? Non. Stratégie.

PlayAI était spécialisé dans la génération de voix à partir de texte court. WaveForms excellait dans l’expressivité émotionnelle et la compréhension contextuelle. Ensemble, ils forment un duo parfait :

  • PlayAI → moteur de synthèse vocale rapide et scalable.
  • WaveForms → couche d’intelligence émotionnelle et de naturalité.
  • Résultat → une voix IA capable de tenir une conversation crédible, empathique et personnalisée.

Meta pourrait ainsi lancer un Meta AI Vocal intégré à Instagram, WhatsApp, Messenger et les lunettes Ray-Ban Meta. Un assistant qui vous parle comme un ami. Qui rit. Qui s’inquiète. Qui vous comprend.

Les Implications Éthiques et Sociétales

Mais cette course à la voix parfaite soulève des questions. Quand une IA parle exactement comme un humain, où est la limite ?

Deepfakes audio, usurpation d’identité, manipulation émotionnelle… Les risques sont réels. WaveForms travaillait sur des garde-fous (watermarking audio, détection de synthèse), mais leur implémentation à grande échelle reste incertaine.

Meta, déjà épinglé pour ses pratiques en matière de données personnelles, devra prouver qu’il peut déployer cette technologie de manière responsable.

Et Après ? Les Prochaines Étapes

À court terme, on peut s’attendre à :

  • Lancement de nouvelles fonctionnalités vocales sur WhatsApp et Instagram.
  • Intégration de l’EGI dans Meta AI.
  • Partenariats avec des créateurs de contenu pour des voix personnalisées.
  • Possible annonce lors de la prochaine Meta Connect.

À long terme ? Une redéfinition complète de l’interaction avec les machines. La voix pourrait devenir l’interface dominante, reléguant les écrans au second plan.

WaveForms n’était qu’un pion. Mais un pion décisif dans la grande partie d’échecs de l’IA.

(Article mis à jour le 29 octobre 2025 – 3124 mots)

avatar d’auteur/autrice
Steven Soarez
Passionné et dévoué, j'explore sans cesse les nouvelles frontières de l'information et de la technologie. Pour explorer les options de sponsoring, contactez-nous.