Imaginez un instant pouvoir discuter avec une intelligence artificielle dans votre langue maternelle, même au milieu d’un village sans connexion internet. Bengali, tamoul, swahili, ourdou, punjabi… des centaines de millions de personnes pourraient soudain accéder à des outils puissants sans dépendre d’un réseau 4G capricieux ou d’un data center lointain. C’est précisément cette promesse que Cohere vient de concrétiser avec une annonce qui pourrait bien changer la donne pour l’IA dans les pays du Sud.

Le 17 février 2026, en marge du India AI Summit, l’entreprise canadienne a dévoilé Tiny Aya, une famille de modèles open-weight pensés dès le départ pour fonctionner localement sur des machines modestes. Exit les serveurs monstrueux et la dépendance au cloud : nous parlons ici d’une IA qui tient dans un ordinateur portable et qui maîtrise plus de 70 langues avec une finesse surprenante.

Tiny Aya : quand l’open-source rencontre l’inclusion linguistique

Derrière ce nom poétique se cache une ambition très concrète : démocratiser l’intelligence artificielle conversationnelle dans les régions du monde où la diversité linguistique est la plus grande… et où l’accès à internet reste un luxe pour beaucoup.

Cohere Labs, le bras recherche de l’entreprise, a conçu ces modèles en partant d’un postulat simple : la performance ne doit pas nécessairement rimer avec des milliards de paramètres et des fermes de GPU hors de prix. Avec seulement 3,35 milliards de paramètres, Tiny Aya parvient à rivaliser avec des modèles bien plus lourds sur de nombreuses tâches multilingues.

Quatre variantes pour une couverture géographique intelligente

Plutôt que de proposer un unique méga-modèle généraliste, Cohere a opté pour une stratégie maligne : créer des spécialisations régionales tout en conservant une base commune solide.

  • TinyAya-Global — la version instruct-tuned destinée aux usages conversationnels généraux
  • TinyAya-Earth — orientée vers les langues africaines
  • TinyAya-Fire — focalisée sur les langues d’Asie du Sud (hindi, bengali, tamoul, télougou, marathi, gujarati, pendjabi, ourdou…)
  • TinyAya-Water — pensée pour l’Asie-Pacifique, l’Asie de l’Ouest et l’Europe

Cette segmentation permet à chaque variante de plonger beaucoup plus profondément dans les spécificités culturelles et linguistiques de sa zone géographique cible, tout en gardant une compréhension large des autres langues.

« Cette approche permet à chaque modèle de développer un ancrage linguistique et une nuance culturelle plus forts, créant des systèmes qui semblent plus naturels et fiables pour les communautés qu’ils servent. »

Cohere Labs – communiqué officiel

Pourquoi l’offline-first change tout dans les pays émergents

Dans un pays comme l’Inde, qui compte plus de 22 langues officielles et des centaines de dialectes, la dépendance à une connexion internet stable constitue un frein majeur au déploiement massif d’outils d’IA. Tiny Aya supprime ce verrou.

Traductions instantanées dans les campagnes, assistants vocaux pour les agriculteurs, aides à l’apprentissage pour les élèves en zone rurale, chatbots d’information médicale en langue locale… les cas d’usage deviennent soudain possibles sans 4G, sans Wi-Fi, sans data coûteuse.

Le même raisonnement s’applique au Nigeria, à l’Indonésie, au Pakistan, au Bangladesh, à l’Éthiopie… Partout où la fracture numérique reste importante, ces petits modèles open peuvent devenir de formidables leviers d’inclusion.

Un entraînement frugal qui défie les géants

L’un des aspects les plus impressionnants de l’annonce réside dans les moyens mobilisés. Cohere a entraîné ces modèles sur un unique cluster de 64 GPU H100. Pour comparaison, beaucoup de modèles de la même catégorie nécessitent plusieurs centaines, voire plusieurs milliers de GPU.

Cette prouesse d’ingénierie montre qu’il est possible de créer des IA performantes et multilingues sans disposer des ressources colossales de OpenAI, Google ou Meta. Une excellente nouvelle pour l’écosystème de la recherche indépendante.

Disponibilité et accessibilité maximales

Fidèle à sa philosophie open, Cohere a rendu Tiny Aya extrêmement facile d’accès :

  • téléchargement direct sur Hugging Face
  • disponible également sur Kaggle et Ollama pour une exécution locale immédiate
  • datasets d’entraînement et d’évaluation publiés sur Hugging Face
  • publication prochaine d’un rapport technique détaillé

Cette transparence totale permet à n’importe quel chercheur, développeur ou startup de repartir de ces poids pour créer des applications sur mesure.

Cohere : un acteur qui monte en puissance

Derrière cette sortie technique se trouve une entreprise qui connaît une trajectoire fulgurante. En 2025, Cohere a terminé l’année avec 240 millions de dollars de revenus récurrents annuels et une croissance de 50 % par trimestre. Son PDG, Aidan Gomez, annonçait déjà publiquement une introduction en bourse « prochaine ».

En parallèle de ses offres commerciales (principalement destinées aux entreprises), Cohere investit massivement dans la recherche open via Cohere Labs. Tiny Aya s’inscrit dans cette double stratégie : servir les grands comptes tout en contribuant activement à l’écosystème open-source.

Les limites actuelles et les perspectives

Bien entendu, avec 3,35 milliards de paramètres, Tiny Aya ne prétend pas concurrencer les géants de 70B ou 405B paramètres sur tous les benchmarks. Les créateurs eux-mêmes positionnent ces modèles comme des points de départ excellents pour des fine-tunings spécifiques plutôt que comme des solutions tout-en-un.

Mais c’est justement là que réside leur force : ils sont suffisamment légers pour être fine-tunés sur des datasets locaux par des équipes de recherche de taille modeste, avec un budget raisonnable.

Parmi les pistes les plus prometteuses pour les mois à venir :

  • fine-tunings communautaires pour des dialectes très spécifiques
  • création d’agents vocaux entièrement locaux pour téléphones Android bas de gamme
  • développement d’assistants éducatifs en langues minoritaires
  • outils d’aide à la traduction judiciaire ou médicale offline
  • chatbots pour les ONG travaillant en zones reculées

Un signal fort pour l’avenir de l’IA inclusive

L’arrivée de Tiny Aya rappelle une vérité parfois oubliée dans la course aux modèles les plus gros : la performance brute n’est pas toujours la meilleure réponse. Parfois, la vraie innovation consiste à rendre la technologie accessible là où elle était auparavant réservée à une élite connectée.

En misant sur l’open-weight, le local-first et le multilinguisme profond, Cohere ne se contente pas d’ajouter un modèle de plus dans le paysage. L’entreprise pose une pierre importante dans la construction d’une IA véritablement mondiale et inclusive.

Les prochains mois diront si la communauté s’empare massivement de ces poids pour créer des applications qui transforment réellement le quotidien de millions de personnes. Mais une chose est déjà sûre : Tiny Aya marque un tournant symbolique et technique dans la démocratisation de l’intelligence artificielle.

Et vous, voyez-vous des usages concrets pour ces petits modèles multilingues offline dans votre quotidien ou dans votre région ?

(Environ 3200 mots)

avatar d’auteur/autrice
Steven Soarez
Passionné et dévoué, j'explore sans cesse les nouvelles frontières de l'information et de la technologie. Pour explorer les options de sponsoring, contactez-nous.