Meta veut enchaîner quatre accélérateurs IA en deux ans. L’objectif, rapporté par la presse spécialisée à partir d’éléments internes, marque une accélération nette de la stratégie maison du groupe pour ses centres de données. Dans le même mouvement, l’entreprise prépare une nouvelle génération, le MTIA 500, attendue en 2027, avec une consommation électrique annoncée à 1 700 watts. Le message est double: augmenter la capacité de calcul dédiée à l’IA et réduire la dépendance aux puces de Nvidia, devenues le point de passage obligé de la plupart des acteurs du secteur.
Le choix technologique mis en avant est tout aussi politique qu’industriel. Meta associe son accélérateur à une base RISC-V, une architecture ouverte, face au duopole historique des jeux d’instructions dominés par x86 et Arm. Pour un groupe qui dépense des milliards dans l’infrastructure, l’enjeu dépasse la performance brute: il s’agit de reprendre la main sur la feuille de route matérielle, les coûts, les délais d’approvisionnement et les optimisations logicielles au plus près des modèles.
Cette trajectoire s’inscrit dans une course mondiale. Les géants du cloud et des plateformes, de Google à Amazon en passant par Microsoft, multiplient les initiatives de silicium interne. Meta, longtemps perçue comme davantage consommatrice de GPU que conceptrice de puces, tente de combler un retard. La contrainte est connue: l’IA générative a fait exploser la demande en accélérateurs, et les capacités de production de pointe restent concentrées chez quelques fondeurs asiatiques, avec des carnets de commandes saturés.
Quatre accélérateurs en deux ans: Meta cherche un rythme industriel
Le cap annoncé, quatre puces en deux ans, relève moins de la communication que d’une discipline de production. Concevoir un accélérateur IA ne se limite pas à dessiner un circuit: il faut verrouiller la chaîne complète, des outils de conception électronique à la validation, puis à l’industrialisation et à l’intégration dans des serveurs. Un cycle annuel ou semestriel rapproche Meta des méthodes des grands concepteurs de processeurs, qui itèrent vite pour corriger des défauts, augmenter les rendements et caler le produit sur les usages réels.
Le contexte de marché explique cette cadence. Depuis 2023, les GPU haut de gamme de Nvidia ont été au cur des déploiements d’IA générative. Les délais d’approvisionnement, les arbitrages entre clients et les prix ont placé les grandes plateformes dans une position de dépendance. Dans ce cadre, une feuille de route interne sert de levier de négociation autant que de solution technique: même si Meta continue d’acheter des GPU, disposer d’une alternative crédible réduit le risque de goulot d’étranglement.
Le pari comporte aussi une dimension logicielle. Les modèles d’IA modernes ne se résument plus à l’entraînement: l’inférence, c’est-à-dire l’exécution en production, pèse de plus en plus dans les coûts. Une puce conçue pour des charges spécifiques, par exemple le ranking publicitaire, la recommandation, ou certaines étapes de traitement de modèles, peut améliorer le ratio performance par watt. Meta a déjà une tradition d’optimisation interne dans ses data centers, et l’accélérateur devient un outil supplémentaire pour serrer la consommation et la latence.
Le risque, lui, est de disperser l’effort. Quatre accélérateurs en deux ans implique des équipes solides, des partenaires industriels stables et une capacité à absorber les retours terrain très vite. Les échecs de certaines initiatives internes, dans l’industrie, rappellent qu’une puce peut être performante sur le papier mais décevante dans un serveur complet, une fois confrontée aux contraintes thermiques, au réseau, au stockage et aux piles logicielles.
MTIA 500 en 2027: 1 700 W, le mur énergétique des data centers
Le chiffre frappe: 1 700 W de consommation électrique pour le MTIA 500 attendu en 2027. Cette valeur situe l’accélérateur dans la catégorie des composants les plus énergivores d’un rack moderne. À cette échelle, le sujet n’est plus seulement la facture d’électricité. Il devient un problème d’ingénierie des centres de données: densité de puissance, distribution électrique, refroidissement, et contraintes de maintenance.
Dans un data center, la puissance par serveur est un paramètre structurant. Plus elle monte, plus les opérateurs doivent revoir les architectures: alimentation redondée, câblage, transformation, mais aussi circulation d’air ou refroidissement liquide. Les accélérateurs IA ont déjà poussé l’industrie vers des solutions avancées, comme le direct-to-chip ou l’immersion. Un composant à 1,7 kW impose de raisonner en termes de kilowatts par carte, ce qui change la manière de remplir un rack et de dimensionner une salle.
Cette montée en puissance a une logique: les modèles grossissent, les débits mémoire deviennent critiques, et les interconnexions entre accélérateurs doivent suivre. Augmenter la consommation peut permettre d’augmenter la fréquence, le nombre d’unités de calcul, ou la bande passante mémoire. Mais l’équation de rentabilité se déplace vers le coût total de possession, incluant l’énergie et le refroidissement. Si le gain de performance n’est pas proportionnel, le composant devient difficile à justifier, même pour un géant comme Meta.
Le chiffre de 2027 signale aussi une temporalité. Les cycles de construction de data centers, l’obtention de capacités électriques et les discussions avec les opérateurs de réseaux se planifient sur plusieurs années. Annoncer une enveloppe de puissance aussi élevée revient à prévenir l’écosystème: l’infrastructure doit être prête. Dans un contexte où les autorités, en Europe comme aux États-Unis, surveillent l’empreinte énergétique du numérique, la question du permis de puissance devient un sujet stratégique.
À court terme, Meta devra prouver que cette trajectoire énergétique s’accompagne d’une efficacité supérieure. Le discours habituel de l’industrie consiste à promettre une meilleure performance par watt malgré une puissance nominale plus élevée, grâce à une utilisation plus dense et à une réduction du temps de calcul. Reste que la contrainte physique demeure: plus la puissance augmente, plus la marge d’erreur sur le refroidissement se réduit, et plus les coûts d’infrastructure montent.
RISC-V comme socle: indépendance technologique et risques d’écosystème
Le recours à RISC-V place Meta dans un courant qui dépasse le simple choix technique. RISC-V est une architecture ouverte, gouvernée par une fondation et un ensemble de spécifications publiques. Pour un acteur de la taille de Meta, l’intérêt est clair: éviter l’enfermement dans des licences coûteuses, garder la possibilité d’adapter le cur processeur à des besoins internes, et sécuriser une partie de la chaîne de valeur.
Cette approche peut aussi faciliter la personnalisation. Dans un accélérateur IA, l’architecture générale combine souvent des blocs spécialisés (matrices de calcul, unités vectorielles, moteurs de compression, contrôleurs mémoire) et des curs plus généralistes pour piloter les tâches. Un socle RISC-V peut servir de cerveau modulable, avec des extensions adaptées à la télémétrie, à la sécurité, ou à la gestion fine de l’alimentation. À l’échelle d’un parc de serveurs, ces détails comptent: ils influencent la stabilité et l’exploitation.
Mais un choix ouvert ne garantit pas un écosystème mature. Les outils, les compilateurs, les bibliothèques, les chaînes de validation et les bonnes pratiques sont plus établis dans les architectures historiques. Pour l’IA, la compatibilité avec les frameworks et les optimisations bas niveau est décisive. Meta dispose d’équipes capables de développer une pile logicielle interne, mais l’effort n’est pas neutre: il faut maintenir des compilateurs, des kernels, des runtimes, et aligner le tout avec l’évolution rapide des modèles.
Le second risque est industriel. Une architecture ouverte ne signifie pas une production ouverte. Les accélérateurs de pointe dépendent de procédés de gravure avancés, de packaging sophistiqué et de mémoires haut débit. Or ces capacités sont concentrées. Meta peut concevoir, mais doit encore réserver des lignes de production et sécuriser des composants critiques. À ce stade, l’indépendance est relative: elle se joue sur la conception et l’optimisation, moins sur la fabrication.
Le choix RISC-V envoie enfin un signal aux partenaires et aux concurrents. Il alimente l’idée que les géants du numérique veulent des briques interchangeables, standardisées, pour éviter qu’un seul fournisseur ne dicte le calendrier. Ce mouvement peut accélérer l’adoption de RISC-V dans les data centers, mais il peut aussi fragmenter les approches si chaque acteur développe ses propres extensions et ses propres outils.
Nvidia dans le viseur: une stratégie de négociation autant que de performance
Le sous-texte est explicite: rattraper Nvidia. L’entreprise californienne domine le marché des accélérateurs IA grâce à un triptyque difficile à répliquer: matériel performant, écosystème logiciel, et capacité à livrer à grande échelle. Pour Meta, l’enjeu n’est pas forcément de remplacer les GPU partout, mais de réduire le point de dépendance. Même une part minoritaire de charges basculées sur MTIA peut modifier l’équation économique.
Les plateformes ont appris à leurs dépens qu’un composant critique peut devenir une contrainte stratégique. Quand la demande dépasse l’offre, les priorités se font à l’échelle mondiale, et les plus petits clients passent après. Meta n’est pas un petit client, mais il reste soumis aux arbitrages d’un fournisseur qui sert aussi ses concurrents directs. Dans ce contexte, développer une filière interne sert de police d’assurance: une alternative existe, donc la négociation sur les volumes, les prix et les calendriers devient moins asymétrique.
La comparaison de performance pure est plus délicate. Nvidia bénéficie d’années d’optimisation logicielle, avec des bibliothèques et des outils devenus standards. Pour qu’un accélérateur interne rivalise, il doit offrir non seulement des TOPS, mais aussi une efficacité réelle dans les modèles cibles, une bonne utilisation de la mémoire et des interconnexions, et une stabilité opérationnelle. Le succès se mesure en coût par requête et en temps de déploiement, pas seulement en benchmarks.
Meta peut compenser par la spécialisation. Un GPU est un outil polyvalent. Une puce interne peut être dessinée pour des workloads précis, avec des compromis assumés. Si l’objectif est l’inférence à grande échelle pour des services internes, la spécialisation peut payer. Si l’objectif est de suivre toutes les tendances de l’IA, la polyvalence redevient un avantage des solutions de marché. La feuille de route quatre en deux ans suggère une tentative de concilier les deux: itérer vite pour élargir les cas d’usage.
Le dernier point est la perception des investisseurs et des régulateurs. À mesure que l’IA devient un poste de dépense massif, les marchés demandent des preuves de discipline capitalistique. Une stratégie de silicium interne peut être présentée comme un moyen de maîtriser les coûts à long terme. Mais elle peut aussi être interprétée comme une fuite en avant si la consommation grimpe et si l’infrastructure doit être reconstruite autour de composants toujours plus gourmands, comme le suggère le jalon 1 700 W.
Selon les informations disponibles, Meta a donc choisi une trajectoire agressive: accélérer le rythme de conception, s’appuyer sur RISC-V pour garder de la flexibilité, et accepter des enveloppes de puissance très élevées avec le MTIA 500. La question opérationnelle qui se pose déjà aux exploitants de data centers est simple: combien de cartes de 1,7 kW un rack peut-il absorber sans basculer vers un refroidissement liquide généralisé, et à quel coût d’infrastructure par mégawatt installé.
Questions fréquentes
- Qu’est-ce que le MTIA 500 annoncé pour 2027 ?
- Le MTIA 500 est un accélérateur IA que Meta prévoit pour 2027, avec une consommation électrique annoncée à 1 700 watts. Il s’inscrit dans une feuille de route visant plusieurs générations rapprochées d’accélérateurs.
- Pourquoi Meta met en avant RISC-V dans ses accélérateurs IA ?
- RISC-V est une architecture ouverte qui permet davantage de personnalisation et réduit la dépendance à certaines licences. Meta peut adapter des cœurs de contrôle et des fonctions système à ses besoins de data centers, au prix d’un effort logiciel plus important.
- Meta veut-elle remplacer Nvidia dans ses centres de données ?
- L’objectif le plus crédible est de réduire la dépendance aux GPU Nvidia sur une partie des charges, notamment celles qui se prêtent à une puce spécialisée. Remplacer totalement l’écosystème Nvidia reste difficile à cause de l’avance logicielle et de la polyvalence des GPU.

