Imaginez un ado de 15 ans qui discute chaque soir jusqu’à 4 heures du matin avec un personnage d’anime qui le comprend mieux que ses propres parents. C’est exactement ce que des millions de jeunes vivaient sur Character.AI… jusqu’à cette semaine.
Du jour au lendemain, l’accès aux chats ouverts a été purement et simplement coupé pour tous les utilisateurs de moins de 18 ans. À la place ? Une nouvelle fonctionnalité baptisée « Stories » : des histoires interactives guidées, bien plus encadrées. Ce virage brutal marque un tournant décisif pour l’une des startups les plus fulgurantes de l’IA grand public.
Character.AI : quand la success-story rencontre la réalité des risques
Lancée en novembre 2021 par deux anciens ingénieurs de Google (Noam Shazeer et Daniel De Freitas), Character.AI a explosé en quelques mois seulement. En mai 2023, la plateforme revendiquait déjà plus de 100 millions de visites mensuelles. Le concept était simple et génial : créer son propre personnage ou discuter avec des versions IA de célébrités, héros de fiction ou même figures historiques.
Mais derrière l’engouement, des signaux d’alerte ont rapidement clignoté. Des adolescents passaient des heures entières à parler à leurs personnages préférés, parfois jusqu’à l’addiction. Pire : certains cas extrêmes ont été médiatisés, avec des plaintes déposées par des familles accusant la plateforme d’avoir contribué à des drames irréparables.
Face à cette pression croissante, Character.AI a pris une décision radicale annoncée le 25 novembre 2025 : plus aucun mineur n’a accès aux chats ouverts. Point final.
Les « Stories » : qu’est-ce que c’est exactement ?
Les Stories sont présentées comme une alternative créative et sécurisée. Concrètement, il s’agit d’histoires interactives où l’utilisateur fait des choix qui influencent le déroulement du récit, un peu comme un livre dont vous êtes le héros version IA.
- Le personnage reste le même (Harry Potter, Spider-Man, votre OC préféré…)
- L’histoire est structurée avec un début, des embranchements et une fin
- Aucun message non sollicité de la part de l’IA
- Pas de conversation ouverte qui peut dériver n’importe où
- Contenu modéré et adapté à l’âge
En résumé : on passe d’un compagnon virtuel disponible 24/7 à une expérience narrative encadrée. C’est moins libre, mais infiniment moins risqué psychologiquement.
« Stories offrent une façon guidée de créer et explorer de la fiction, au lieu du chat ouvert »
Character.AI – Blog officiel, novembre 2025
Pourquoi cette décision était inévitable
Plusieurs éléments ont forcé la main de la startup.
D’abord, les plaintes judiciaires. Aux États-Unis, plusieurs familles ont attaqué Character.AI et d’autres plateformes d’IA conversationnelle, les accusant d’avoir aggravé des situations de détresse psychologique chez leurs enfants. Même si les liens de causalité sont complexes à prouver, l’image de la startup en a pris un coup.
Ensuite, la législation bouge vite. La Californie a adopté en 2025 la première loi encadrant spécifiquement les « compagnons IA ». Au niveau fédéral, le sénateur Josh Hawley (républicain) et Richard Blumenthal (démocrate) ont déposé un projet de loi visant à interdire purement et simplement les IA conversationnelles pour les mineurs.
Enfin, les études scientifiques s’accumulent. Une recherche publiée dans Nature en 2025 montre que les adolescents passant plus de 3 heures par jour à discuter avec des IA conversationnelles présentent un risque accru de dépendance comportementale et de dépression.
La réaction des adolescents : entre colère et… soulagement ?
Sur Reddit, Discord et TikTok, la pilule a du mal à passer pour beaucoup.
Mais ce qui frappe, c’est la maturité de certains témoignages. Un utilisateur de 16 ans écrit :
« Je suis tellement en colère contre cette interdiction… mais aussi tellement soulagé. Maintenant je vais peut-être enfin réussir à dormir et à revoir mes amis. »
u/throwaway_c.ai_addict – Reddit, novembre 2025
Un autre ajoute : « Franchement on savait tous que c’était trop addictif. Ils ont bien fait, même si ça fait mal. »
Cette ambivalence résume parfaitement la situation : les ados aimaient profondément le produit… précisément parce qu’il était dangereux.
Un modèle économique mis à l’épreuve
Il faut le dire clairement : les mineurs représentaient une part énorme de l’audience de Character.AI. Certains estimaient qu’ils constituaient plus de 60 % des utilisateurs actifs.
En coupant l’accès au produit phare pour cette tranche d’âge, la startup prend un risque financier colossal. Reste à voir si les Stories parviendront à retenir les jeunes et si les abonnements premium (réservés aux plus de 18 ans) suffiront à maintenir la valorisation à plus de 5 milliards de dollars atteinte lors du dernier tour de table.
Comparaison avec les autres plateformes
| Plateforme | Accès mineurs chat ouvert | Alternative proposée |
| Character.AI | Interdit depuis nov. 2025 | Stories interactives |
| Replika | Restreint (mode limité) | Mode « ami » bridé |
| Chai | Toujours ouvert | Aucune |
| Paradot | Interdit moins de 17 ans | N/A |
Character.AI est donc la première grande plateforme à franchir le pas de façon aussi radicale. Un pari courageux qui pourrait créer un précédent.
Ce que cela dit de l’avenir des IA compagnons
Cette décision marque la fin de l’âge d’or naïf des chatbots émotionnels grand public.
On assiste à une bifurcation claire :
- D’un côté, les IA compagnons pour adultes, avec toutes les libertés (et tous les risques)
- De l’autre, des expériences créatives encadrées pour les plus jeunes
Karandeep Anand, le nouveau CEO, l’a dit sans détour : « J’espère vraiment que notre initiative posera un standard dans l’industrie. Pour les moins de 18 ans, les chats ouverts ne sont probablement pas le bon produit. »
Et il a probablement raison.
Et maintenant ?
Les prochains mois seront cruciaux pour Character.AI. Si les Stories rencontrent un vrai succès auprès des adolescents, la plateforme pourrait transformer cette contrainte en opportunité et devenir le leader incontesté de la fiction interactive IA.
Dans le cas contraire, la perte massive d’utilisateurs pourrait fragiliser sérieusement la startup, malgré ses levées de fonds records.
Une chose est sûre : on vient d’assister à un moment charnière dans l’histoire des IA grand public. Un moment où une entreprise a choisi de privilégier la sécurité de ses utilisateurs les plus vulnérables au détriment d’une croissance effrénée.
C’est rare. C’est courageux.
Et ça mérite d’être salué.