NVIDIA et Meta établissent une coopération à long terme pour promouvoir l'innovation dans l'infrastructure IA

17 février, la géante technologique américaine Meta et Nvidia ont annoncé l’établissement d’un nouveau partenariat stratégique à long terme. Cette collaboration ne couvre pas seulement le déploiement massif de puces, mais implique également une optimisation complète du matériel au logiciel. Dans un contexte de concurrence croissante dans le domaine de l’intelligence artificielle, cette annonce a rapidement attiré une grande attention dans l’industrie.

Après l’annonce, les actions de Meta et Nvidia ont augmenté après la clôture, tandis que celles d’AMD ont brièvement chuté de plus de 4 %. Selon les informations divulguées par les deux parties, l’un des éléments clés de cette coopération est que Meta déploiera des millions de puces Nvidia dans ses centres de données, comprenant des GPU à architecture Blackwell, des GPU de prochaine génération à architecture Rubin, ainsi que des processeurs centraux Grace basés sur Arm. Cela marque la première déploiement à grande échelle du CPU Grace de Nvidia, constituant un défi sérieux au marché traditionnel des architectures x86.

De plus, Meta prévoit d’introduire d’ici 2027 la série de processeurs Vera, plus performants, afin de renforcer sa position dans le domaine de la puissance de calcul AI à haute efficacité énergétique. Cette collaboration ne se limite pas à un simple achat de matériel ; les équipes d’ingénierie des deux entreprises travailleront conjointement sur la conception matérielle et logicielle pour la prochaine génération de modèles linguistiques à grande échelle de Meta (comme le successeur de Llama4), afin d’optimiser les performances de base.

Nvidia, en intégrant CPU, GPU, technologies réseau (comme la plateforme Ethernet Spectrum-X) et l’écosystème logiciel, fournit à Meta une solution unifiée couvrant l’entraînement, l’inférence et le traitement des données. Jensen Huang a déclaré qu’aucune autre entreprise ne pouvait déployer à une telle échelle l’intelligence artificielle comme Meta, combinant recherche de pointe et infrastructure industrielle pour créer le plus grand système mondial pour des milliards d’utilisateurs.

Mark Zuckerberg a souligné que l’expansion de la coopération avec Nvidia, notamment par le biais de la plateforme Vera Rubin pour construire des clusters de premier plan, constitue une étape essentielle pour réaliser la vision « fournir une super intelligence personnelle à chaque individu dans le monde ». Bien que Meta ait développé ses propres puces AI ces dernières années, cette acquisition massive de puces Nvidia est vue comme une stratégie à long terme pour verrouiller la demande en puissance de calcul externe, afin de rester compétitif face à Google, Microsoft et autres.

Meta a également mentionné qu’elle intégrera la technologie de sécurité de Nvidia dans les fonctionnalités AI de WhatsApp. Zuckerberg a indiqué qu’en adoptant la technologie de calcul confidentiel de Nvidia, Meta pourra améliorer ses performances tout en respectant des exigences strictes en matière de sécurité des données et de confidentialité.

Les analystes estiment que l’ampleur de cette coopération pourrait atteindre plusieurs centaines de milliards de dollars. La semaine dernière, Meta a annoncé que ses dépenses d’investissement pour 2026 pourraient atteindre jusqu’à 1350 milliards de dollars, une grande partie étant consacrée à la construction d’infrastructures AI. Ben Bajarin, analyste en puces chez Creative Strategies, a souligné que l’adoption à grande échelle par Meta confirme la stratégie d’infrastructure « full-stack » de Nvidia, combinant CPU et GPU.

Il est également important de noter que Meta poursuit depuis plusieurs années une stratégie de développement de ses propres puces AI, visant à optimiser la performance pour ses charges de travail spécifiques tout en réduisant les coûts. Cependant, selon des sources proches du dossier, ces projets ont rencontré des défis techniques et des retards de déploiement, ce qui pousse l’entreprise à continuer de s’appuyer sur les solutions éprouvées de Nvidia.

Cette coopération a également un impact direct sur ses concurrents, notamment AMD. Après l’annonce, le cours de l’action AMD a brièvement chuté de plus de 4 % après la clôture, tandis que celui de Meta et Nvidia a respectivement augmenté de 1,5 % et 1,8 %, témoignant d’une forte reconnaissance du marché pour cette alliance.

D’un point de vue sectoriel, la collaboration entre Nvidia et Meta reflète le déplacement du centre de gravité du calcul AI, passant de la formation de modèles à l’inférence. Les tâches d’inférence nécessitent une capacité de calcul efficace et à faible latence, et le CPU Grace de Nvidia a été conçu précisément pour répondre à cette demande, avec un rapport performance-consommation nettement supérieur à celui des CPU traditionnels.

La conclusion de cet accord indique également une recomposition intense du paysage concurrentiel. Pour des géants traditionnels comme Intel et AMD, l’orientation massive de Meta vers les CPU basés sur l’architecture Arm constitue un signal d’alerte sérieux, suggérant que la structure de pouvoir dans le marché des centres de données à grande échelle est en train de changer structurellement.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler

Trader les cryptos partout et à tout moment
qrCode
Scan pour télécharger Gate app
Communauté
Français (Afrique)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)