Metaは英偉達との協力を拡大し、業界の競争状況が激化

2023年2月17日、米国の大手テクノロジー企業であるMetaとNVIDIAは、新たな長期パートナーシップを発表しました。この協力は、チップの大規模展開だけでなく、ハードウェアからソフトウェアまでの全スタックの最適化を含みます。人工知能分野での競争が激化する中、この重要なニュースは業界の注目を集めました。発表後、MetaとNVIDIAの株価はアフターマーケットで上昇し、一方でAMDの株価は一時4%超下落しました。

双方の公開情報によると、この協力の核心の一つは、Metaがデータセンターに数百万個のNVIDIAチップを導入することです。対象はBlackwellアーキテクチャのGPU、次世代のRubinアーキテクチャGPU、ArmベースのGrace中央処理装置(CPU)です。特に、NVIDIAのGrace CPUの大規模導入は初めてであり、従来のx86アーキテクチャの独占に挑戦します。さらに、Metaは2027年により高性能なVeraシリーズのプロセッサを導入し、高効率AI計算能力の強化を図る計画です。

この協力は単なるハードウェア調達を超えた深度を持ちます。両社のエンジニアチームは、Metaの次世代大規模言語モデル(コードネーム「アボカド」のLlama4後継)向けに、ハードウェアとソフトウェアの協調設計を行います。これにより、基盤性能の最適化を実現します。CPU、GPU、ネットワーク技術(Spectrum-X Ethernetプラットフォーム)およびソフトウェアエコシステムを統合し、NVIDIAはMetaに対して訓練、推論、データ処理をカバーする統一ソリューションを提供します。

NVIDIAの創業者ジェンスン・ファンは、「現時点でMetaのように大規模にAIを展開できる企業はない。Metaは最先端の研究と産業用インフラを融合させ、数十億人のユーザーのために世界最大規模のシステムを構築している」と述べています。「世界中の企業の中でMetaのAI展開規模に匹敵するものはなく、協調設計の能力が両者の技術的潜在能力を最大化する」とも語っています。

CPU、GPU、ネットワーク、ソフトウェアの深い協調設計により、NVIDIAはMetaの研究者やエンジニアに対して、次世代AIの基盤となるプラットフォームを提供します。MetaのザッカーバーグCEOは、「NVIDIAとの協力拡大により、Vera Rubinプラットフォームを活用した先進的なクラスターを構築し、世界中のすべての人に個人用スーパーインテリジェンスを提供する」と述べました。これは、Metaの自社チップ戦略の補完であり、競合他社への対抗策としても重要です。

Metaは近年、自社AIチップの開発を積極的に進めてきましたが、今回の大規模なNVIDIAチップの調達は、外部の計算能力需要を長期的に確保し、GoogleやMicrosoftなどの競合に遅れを取らないための戦略と見られています。ザッカーバーグは、「これは世界中のユーザーに個人用スーパーインテリジェンスを提供するというビジョンの実現に向けた重要な礎だ」と強調しています。

また、Metaは声明で、NVIDIAのセキュリティ技術をWhatsAppのAI機能に統合すると述べています。ザッカーバーグは、「NVIDIAの秘密計算技術を導入することで、性能向上とともに、データの安全性とプライバシー保護の厳しい要求に応える」と語っています。

アナリストは、この協力の規模は数百億ドルに達する可能性があると見ています。Metaは先月、2026年の資本支出が最大1350億ドルに達すると発表し、その多くがAIインフラの構築に充てられるとしています。Creative StrategiesのチップアナリストBen Bajarinは、「Metaの大規模採用は、NVIDIAがCPUとGPUの両方を展開する『フルスタック』インフラ戦略を検証したものだ」と指摘します。これらのチップは推論負荷やインテリジェントエージェント型タスクに特化して設計されており、AI業界は訓練段階から推論段階へと移行しています。

特に注目されるのは、Metaが自社AIチップ戦略を推進し、独自の負荷に最適化した性能向上とコスト削減を目指している点です。ただし、関係者によると、技術的な課題や導入遅延により、同社は引き続きNVIDIAの成熟したソリューションに依存しているとのことです。それでも、Metaは完全に依存しているわけではなく、昨年11月には、2027年にGoogleのテンソル処理器(TPU)をデータセンターに導入し、多様な計算資源を確保することも検討していると報じられています。

この協力は、NVIDIAの競合であるAMDに直接的な影響を与えています。発表後、AMDの株価はアフターマーケットで一時4%超下落し、MetaとNVIDIAの株価はそれぞれ1.5%と1.8%上昇しました。市場はこの協力に高い評価を示しています。

市場の見方では、この超大規模な注文は、投資家の大口顧客が自社開発チップに移行する懸念を払拭したと考えられます。ウォール街のアナリストは、NVIDIAがGrace CPU、Rubin GPU、Spectrum-Xネットワーク技術をパッケージ化したモデルにより、AIインフラのリーダーシップを確固たるものにしていると指摘します。一方、Metaの巨額資本支出計画は、AIリーダーシップ獲得への意欲を示しています。ただし、利益圧力の懸念も一部にはありますが、長期的な計算能力確保戦略は競合に対抗する有効な防御策と見なされています。

業界全体を見ると、NVIDIAとMetaの協力は、AIの計算重心がモデルの訓練から推論へと移行していることを反映しています。推論は高効率・低遅延の計算能力を必要とし、NVIDIAのGrace CPUはこのニーズに特化して設計されており、従来のCPUよりも性能と消費電力比に優れています。Metaが毎日数十億人のユーザーにAI推論を提供する中、最適化されたGrace CPUの採用は、エネルギー消費抑制と効率向上の重要な戦略となるでしょう。

この協力は、業界の競争構造に大きな変化をもたらす可能性があります。特に、IntelやAMDなど従来のチップ大手にとって、MetaのArmアーキテクチャCPUへの大規模シフトは警鐘です。超大規模データセンター市場の権力構造が変わりつつあることを示唆しています。複数の権威ある分析レポートによると、Amazon、Alphabet、Metaを含む主要企業の2026年度の資本支出は引き続き高水準で推移し、数百億ドル規模の資金がNVIDIAのGPUを中心としたデータセンター建設に流れています。この継続的かつ高い需要は、「AI投資のリターン不足」という懸念を効果的に打ち消しています。

(経済観察網李強/文)

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン