Meta étend sa collaboration avec NVIDIA, intensifiant la concurrence dans le secteur

Le 17 février, Meta et Nvidia, deux géants de la technologie américains, ont annoncé l’établissement d’un nouveau partenariat à long terme. Leur collaboration ne concerne pas seulement le déploiement massif de puces, mais couvre également l’optimisation de toute la chaîne, du matériel au logiciel. Dans un contexte de compétition de plus en plus féroce dans le domaine de l’intelligence artificielle, cette annonce a suscité une large attention dans l’industrie. Après la publication de l’information, les actions de Meta et Nvidia ont augmenté en after-hours, tandis que celles d’AMD ont brièvement chuté de plus de 4 %.

Selon les informations divulguées par les deux parties, l’un des éléments clés de cette coopération est que Meta déploiera des millions de puces Nvidia dans ses centres de données, comprenant des GPU à architecture Blackwell, des GPU de prochaine génération à architecture Rubin, ainsi que des processeurs centraux Grace basés sur Arm. Il est à noter que c’est la première fois que le CPU Grace de Nvidia est déployé à grande échelle de manière indépendante, remettant en cause la domination traditionnelle de l’architecture x86. De plus, Meta prévoit d’introduire d’ici 2027 une série de processeurs Vera plus performants, renforçant ainsi sa position dans le domaine de la puissance de calcul AI à haute efficacité énergétique.

Cette collaboration va bien au-delà d’un simple achat de matériel. Les équipes d’ingénierie des deux entreprises travailleront en synergie pour concevoir le matériel et le logiciel de la prochaine génération de modèles linguistiques à grande échelle de Meta (comme le successeur de Llama4, codé « Avocado »), afin d’optimiser les performances fondamentales. En intégrant CPU, GPU, technologies réseau (comme la plateforme Ethernet Spectrum-X) et écosystème logiciel, Nvidia fournit à Meta une solution unifiée couvrant la formation, l’inférence et le traitement des données.

Jensen Huang, fondateur de Nvidia, a déclaré qu’aucune autre entreprise ne pouvait déployer à grande échelle de l’intelligence artificielle comme Meta. Meta combine recherche de pointe et infrastructure industrielle pour créer le plus grand système mondial destiné à des milliards d’utilisateurs. « Aucune entreprise au monde ne peut atteindre l’échelle de déploiement AI de Meta, et la capacité de conception collaborative permettra de maximiser le potentiel technologique des deux parties », a-t-il ajouté.

Grâce à une conception approfondie intégrant CPU, GPU, réseau et logiciel, Nvidia apportera à Meta une plateforme complète pour ses chercheurs et ingénieurs, afin de construire la prochaine génération de l’intelligence artificielle. Mark Zuckerberg, PDG de Meta, a quant à lui déclaré qu’en élargissant leur partenariat avec Nvidia et en utilisant leur plateforme Vera Rubin, ils construiront un cluster de pointe pour offrir une super intelligence personnelle à chaque individu dans le monde. Pour Meta, cette collaboration constitue à la fois un complément à sa stratégie de développement de ses propres puces et une étape clé pour faire face à la pression de ses concurrents.

Malgré ses efforts récents pour développer ses propres puces AI, cette commande massive de puces Nvidia est interprétée comme une stratégie à long terme pour verrouiller la demande en puissance de calcul externe, afin de garantir que Meta ne soit pas en retard dans la compétition pour la commercialisation de l’IA face à Google, Microsoft et autres. Zuckerberg a souligné que cette démarche est une étape fondamentale pour réaliser la vision de « fournir une super intelligence personnelle à tous les utilisateurs mondiaux ».

De plus, Meta a indiqué dans un communiqué que l’entreprise intégrera la technologie de sécurité de Nvidia dans les fonctionnalités AI de WhatsApp. Zuckerberg a précisé qu’en adoptant la technologie de calcul confidentiel de Nvidia, Meta pourra améliorer ses performances tout en respectant des exigences strictes en matière de sécurité des données et de confidentialité.

Les analystes estiment que l’ampleur de cette coopération pourrait atteindre plusieurs centaines de milliards de dollars. La société a annoncé le mois dernier que ses dépenses d’investissement en 2026 pourraient atteindre jusqu’à 1350 milliards de dollars, une grande partie étant consacrée à la construction d’infrastructures AI. Ben Bajarin, analyste en chips chez Creative Strategies, a déclaré : « La large adoption par Meta valide la stratégie d’infrastructure ‘full-stack’ de Nvidia, combinant CPU et GPU. » Il souligne que ces puces sont spécialement conçues pour les charges de travail d’inférence et les tâches d’agents intelligents, alors que l’industrie de l’IA évolue du stade de l’entraînement vers celui de l’inférence.

Il est également important de noter que Meta poursuit depuis plusieurs années une stratégie de développement interne de ses puces AI, visant à optimiser la performance pour ses charges de travail spécifiques tout en réduisant les coûts. Cependant, selon des sources proches du dossier, le projet a rencontré des défis techniques et des retards de déploiement, ce qui a conduit l’entreprise à continuer de s’appuyer sur les solutions éprouvées de Nvidia. Malgré cela, Meta ne dépend pas entièrement de Nvidia : en novembre dernier, il a été rapporté que Meta envisageait d’introduire en 2027 des TPU de Google dans ses centres de données pour diversifier ses sources de puissance de calcul.

Cette collaboration a également un impact direct sur ses concurrents, notamment AMD. Après l’annonce, le cours de l’action AMD a brièvement chuté de plus de 4 % en after-hours, tandis que celui de Meta et Nvidia a respectivement augmenté de 1,5 % et 1,8 %, témoignant d’une forte reconnaissance du marché pour cette alliance.

Le consensus du marché estime que cette commande de grande envergure dissipe les inquiétudes des investisseurs quant à un transfert massif de clients vers le développement interne de puces. Les analystes de Wall Street soulignent que Nvidia, en intégrant Grace CPU, Rubin GPU et Spectrum-X, a réussi à consolider sa position dans le domaine des infrastructures AI, tandis que le plan d’investissement massif de Meta montre sa détermination à dominer le secteur de l’IA. Cependant, certains craignent que cette stratégie n’entraîne une pression sur ses marges, mais sa stratégie à long terme pour garantir la puissance de calcul est toujours vue comme une défense efficace contre ses concurrents.

D’un point de vue sectoriel, cette collaboration Nvidia-Meta reflète le déplacement du centre de gravité du calcul AI du stade de l’entraînement vers celui de l’inférence. Les tâches d’inférence nécessitent des capacités de calcul efficaces et à faible latence, et le CPU Grace de Nvidia, conçu spécifiquement pour cette demande, offre un rapport performance-consommation nettement supérieur à celui des CPU traditionnels. Avec la croissance continue des besoins en inférence AI pour des milliards d’utilisateurs quotidiens, l’adoption du CPU Grace optimisé deviendra une stratégie clé pour contrôler la consommation d’énergie et améliorer l’efficacité.

Ce partenariat annonce également une recomposition importante du paysage concurrentiel. Pour des acteurs traditionnels comme Intel et AMD, l’orientation massive de Meta vers l’architecture Arm pour ses CPU constitue un signal d’alerte sérieux, indiquant que la structure du marché des centres de données à grande échelle est en train de changer. Selon plusieurs rapports d’analyse, des entreprises telles qu’Amazon, Alphabet et Meta continueront à augmenter leurs investissements en 2026, avec des centaines de milliards de dollars investis dans la construction de centres de données centrés sur les GPU Nvidia. Cette demande continue et hautement prévisible permet de contrebalancer les inquiétudes antérieures concernant le faible retour sur investissement de l’IA.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)