Ngày 17 tháng 2, hai tập đoàn công nghệ lớn của Mỹ là Meta và Nvidia đã công bố thiết lập mối quan hệ hợp tác dài hạn mới, hợp tác không chỉ liên quan đến việc triển khai quy mô lớn các chip mà còn bao gồm tối ưu toàn bộ hệ sinh thái từ phần cứng đến phần mềm. Trong bối cảnh cạnh tranh trong lĩnh vực trí tuệ nhân tạo ngày càng gay gắt, thông tin quan trọng này đã thu hút sự chú ý rộng rãi của ngành. Sau khi thông báo được phát hành, giá cổ phiếu của Meta và Nvidia đã tăng trong giao dịch sau giờ làm việc, trong khi giá cổ phiếu của AMD đã giảm hơn 4% trong thời điểm đó.
Theo thông tin do hai bên tiết lộ, một trong những nội dung cốt lõi của hợp tác này là Meta sẽ triển khai hàng triệu chip của Nvidia trong các trung tâm dữ liệu của mình, bao gồm GPU dựa trên kiến trúc Blackwell, GPU thế hệ tiếp theo dựa trên kiến trúc Rubin và bộ xử lý trung tâm dựa trên Arm mang tên Grace. Đáng chú ý, đây là lần đầu tiên CPU Grace của Nvidia được triển khai quy mô lớn độc lập, thách thức vị trí độc quyền của kiến trúc x86 truyền thống. Ngoài ra, Meta còn dự định giới thiệu dòng bộ xử lý Vera có hiệu năng mạnh hơn vào năm 2027, nhằm củng cố hơn nữa vị thế trong lĩnh vực tính toán AI hiệu quả cao.
Mức độ hợp tác lần này vượt xa việc mua sắm phần cứng đơn thuần. Đội ngũ kỹ sư của hai công ty sẽ phối hợp thiết kế phần mềm và phần cứng cho thế hệ mô hình ngôn ngữ lớn tiếp theo của Meta (ví dụ như người kế nhiệm Llama4 mang mã tên “Avocado”), nhằm tối ưu hiệu suất nền tảng. Bằng cách tích hợp CPU, GPU, công nghệ mạng (như nền tảng Ethernet Spectrum-X) và hệ sinh thái phần mềm, Nvidia cung cấp cho Meta giải pháp thống nhất bao gồm đào tạo, suy luận và xử lý dữ liệu.
Ông Jensen Huang, sáng lập Nvidia, cho biết hiện chưa có công ty nào có thể triển khai quy mô lớn trí tuệ nhân tạo như Meta. Meta đã kết hợp nghiên cứu tiên tiến với hạ tầng công nghiệp để tạo ra hệ thống quy mô lớn nhất thế giới cho hàng tỷ người dùng. “Không có doanh nghiệp nào trên toàn cầu có thể đạt được quy mô triển khai AI như Meta, và khả năng thiết kế hợp tác sẽ tối đa hóa tiềm năng công nghệ của cả hai,” ông nói.
Thông qua thiết kế hợp tác sâu rộng về CPU, GPU, mạng và phần mềm, Nvidia sẽ mang đến nền tảng hoàn chỉnh cho các nhà nghiên cứu và kỹ sư của Meta, giúp họ xây dựng nền tảng AI tiên tiến thế hệ tiếp theo. CEO Meta, Mark Zuckerberg, cho biết việc mở rộng hợp tác với Nvidia, sử dụng nền tảng Vera Rubin để xây dựng các cụm máy chủ hàng đầu, sẽ hướng tới cung cấp siêu trí tuệ cá nhân cho mọi người trên toàn thế giới. Đối với Meta, hợp tác này không chỉ bổ sung chiến lược tự phát triển chip của họ mà còn là bước đi quan trọng để đối phó với áp lực từ các đối thủ cạnh tranh.
Dù trong những năm gần đây Meta đã tích cực phát triển chip AI tự chế, nhưng việc mua sắm quy mô lớn chip Nvidia lần này được xem là nhằm khóa chặt nhu cầu tính toán bên ngoài trong dài hạn, đảm bảo họ không bị tụt lại phía sau trong cạnh tranh thương mại AI so với Google, Microsoft và các đối thủ khác. Zuckerberg nhấn mạnh, bước đi này là nền tảng quan trọng để hiện thực hóa tầm nhìn “cung cấp siêu trí tuệ cá nhân cho người dùng toàn cầu.”
Ngoài ra, Meta còn đề cập trong tuyên bố rằng công ty sẽ tích hợp công nghệ an ninh của Nvidia vào các chức năng AI của ứng dụng nhắn tin WhatsApp. Zuckerberg cho biết, việc đưa công nghệ tính toán bí mật của Nvidia vào giúp Meta nâng cao hiệu suất đồng thời đáp ứng các yêu cầu khắt khe về an toàn dữ liệu và quyền riêng tư.
Các nhà phân tích cho rằng quy mô hợp tác này có thể đạt trị giá hàng trăm tỷ USD. Tháng trước, Meta công bố dự kiến chi tiêu vốn cho năm 2026 lên tới 1350 tỷ USD, phần lớn trong đó dành cho xây dựng hạ tầng AI. Nhà phân tích chip của Creative Strategies, Ben Bajarin, nhận định: “Việc Meta quy mô lớn sử dụng các giải pháp toàn diện của Nvidia, kết hợp CPU và GPU, đã xác nhận chiến lược hạ tầng ‘toàn bộ chuỗi’ của Nvidia trong lĩnh vực hạ tầng AI.” Ông nhấn mạnh, các chip này được thiết kế đặc biệt cho các nhiệm vụ suy luận và tác vụ trung gian trí tuệ, trong khi ngành AI đang chuyển từ giai đoạn huấn luyện sang suy luận.
Điều đáng chú ý là, trong những năm gần đây, Meta đã thúc đẩy chiến lược tự phát triển chip AI nhằm tối ưu hiệu suất cho các tác vụ đặc thù và giảm chi phí. Tuy nhiên, theo nguồn tin thân cận, các dự án này gặp phải thách thức về công nghệ và trì hoãn trong triển khai, buộc công ty phải tiếp tục dựa vào các giải pháp đã thành công của Nvidia. Dù vậy, Meta vẫn chưa hoàn toàn phụ thuộc vào Nvidia; tháng 11 năm ngoái, có tin đồn rằng Meta đang xem xét giới thiệu bộ xử lý tensor của Google (TPU) trong trung tâm dữ liệu vào năm 2027 để đa dạng hóa nguồn lực tính toán.
Mối hợp tác này đã gây ảnh hưởng trực tiếp đến đối thủ cạnh tranh của Nvidia là AMD. Sau khi thông tin được công bố, giá cổ phiếu AMD đã giảm hơn 4% trong giao dịch sau giờ, trong khi cổ phiếu của Meta và Nvidia tăng lần lượt 1.5% và 1.8%, cho thấy thị trường đánh giá cao hợp tác này.
Các nhà phân tích thị trường cho rằng đơn hàng quy mô lớn này đã xóa bỏ lo ngại về việc các khách hàng lớn chuyển sang tự phát triển chip. Các chuyên gia của phố Wall nhận định, Nvidia đã củng cố vị thế trong lĩnh vực hạ tầng AI bằng cách kết hợp Grace CPU, Rubin GPU và công nghệ mạng Spectrum-X, trong khi kế hoạch chi tiêu vốn lớn của Meta thể hiện quyết tâm chiếm lĩnh vị trí dẫn đầu AI. Tuy nhiên, cũng có ý kiến lo ngại rằng Meta có thể phải đối mặt với áp lực lợi nhuận, nhưng chiến lược đảm bảo năng lực tính toán dài hạn vẫn được xem là biện pháp phòng thủ hiệu quả chống lại các đối thủ cạnh tranh.
Từ góc độ ngành, mối hợp tác giữa Nvidia và Meta phản ánh xu hướng chuyển trọng tâm tính toán AI từ huấn luyện mô hình sang giai đoạn suy luận. Các nhiệm vụ suy luận đòi hỏi khả năng tính toán hiệu quả, độ trễ thấp, và CPU Grace của Nvidia chính là thiết kế dành riêng cho nhu cầu này, với hiệu năng trên tiêu thụ năng lượng vượt trội so với CPU truyền thống. Khi số lượng người dùng hàng tỷ mỗi ngày của Meta ngày càng tăng trong các yêu cầu suy luận AI, việc sử dụng CPU Grace tối ưu hóa chuyên biệt sẽ là chiến lược then chốt để kiểm soát tiêu thụ năng lượng và nâng cao hiệu quả.
Thỏa thuận hợp tác này cũng báo hiệu một cuộc thay đổi lớn trong cạnh tranh ngành. Đối với các tập đoàn chip truyền thống như Intel và AMD, việc Meta chuyển hướng mạnh mẽ sang kiến trúc CPU Arm là một cảnh báo nghiêm trọng, cho thấy cấu trúc quyền lực trong thị trường trung tâm dữ liệu quy mô lớn đang có sự dịch chuyển cấu trúc rõ rệt. Theo nhiều báo cáo phân tích uy tín, các doanh nghiệp hàng đầu như Amazon, Alphabet và Meta vẫn duy trì tốc độ tăng trưởng chi tiêu vốn cao trong năm tài chính 2026, với hàng trăm tỷ USD đổ vào xây dựng trung tâm dữ liệu dựa trên GPU của Nvidia. Nhu cầu liên tục và có độ tin cậy cao này đã phần nào xoa dịu lo ngại trước đó về “lợi nhuận đầu tư AI không đủ”.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Meta mở rộng hợp tác với Nvidia, tình hình cạnh tranh trong ngành ngày càng gay gắt
Ngày 17 tháng 2, hai tập đoàn công nghệ lớn của Mỹ là Meta và Nvidia đã công bố thiết lập mối quan hệ hợp tác dài hạn mới, hợp tác không chỉ liên quan đến việc triển khai quy mô lớn các chip mà còn bao gồm tối ưu toàn bộ hệ sinh thái từ phần cứng đến phần mềm. Trong bối cảnh cạnh tranh trong lĩnh vực trí tuệ nhân tạo ngày càng gay gắt, thông tin quan trọng này đã thu hút sự chú ý rộng rãi của ngành. Sau khi thông báo được phát hành, giá cổ phiếu của Meta và Nvidia đã tăng trong giao dịch sau giờ làm việc, trong khi giá cổ phiếu của AMD đã giảm hơn 4% trong thời điểm đó.
Theo thông tin do hai bên tiết lộ, một trong những nội dung cốt lõi của hợp tác này là Meta sẽ triển khai hàng triệu chip của Nvidia trong các trung tâm dữ liệu của mình, bao gồm GPU dựa trên kiến trúc Blackwell, GPU thế hệ tiếp theo dựa trên kiến trúc Rubin và bộ xử lý trung tâm dựa trên Arm mang tên Grace. Đáng chú ý, đây là lần đầu tiên CPU Grace của Nvidia được triển khai quy mô lớn độc lập, thách thức vị trí độc quyền của kiến trúc x86 truyền thống. Ngoài ra, Meta còn dự định giới thiệu dòng bộ xử lý Vera có hiệu năng mạnh hơn vào năm 2027, nhằm củng cố hơn nữa vị thế trong lĩnh vực tính toán AI hiệu quả cao.
Mức độ hợp tác lần này vượt xa việc mua sắm phần cứng đơn thuần. Đội ngũ kỹ sư của hai công ty sẽ phối hợp thiết kế phần mềm và phần cứng cho thế hệ mô hình ngôn ngữ lớn tiếp theo của Meta (ví dụ như người kế nhiệm Llama4 mang mã tên “Avocado”), nhằm tối ưu hiệu suất nền tảng. Bằng cách tích hợp CPU, GPU, công nghệ mạng (như nền tảng Ethernet Spectrum-X) và hệ sinh thái phần mềm, Nvidia cung cấp cho Meta giải pháp thống nhất bao gồm đào tạo, suy luận và xử lý dữ liệu.
Ông Jensen Huang, sáng lập Nvidia, cho biết hiện chưa có công ty nào có thể triển khai quy mô lớn trí tuệ nhân tạo như Meta. Meta đã kết hợp nghiên cứu tiên tiến với hạ tầng công nghiệp để tạo ra hệ thống quy mô lớn nhất thế giới cho hàng tỷ người dùng. “Không có doanh nghiệp nào trên toàn cầu có thể đạt được quy mô triển khai AI như Meta, và khả năng thiết kế hợp tác sẽ tối đa hóa tiềm năng công nghệ của cả hai,” ông nói.
Thông qua thiết kế hợp tác sâu rộng về CPU, GPU, mạng và phần mềm, Nvidia sẽ mang đến nền tảng hoàn chỉnh cho các nhà nghiên cứu và kỹ sư của Meta, giúp họ xây dựng nền tảng AI tiên tiến thế hệ tiếp theo. CEO Meta, Mark Zuckerberg, cho biết việc mở rộng hợp tác với Nvidia, sử dụng nền tảng Vera Rubin để xây dựng các cụm máy chủ hàng đầu, sẽ hướng tới cung cấp siêu trí tuệ cá nhân cho mọi người trên toàn thế giới. Đối với Meta, hợp tác này không chỉ bổ sung chiến lược tự phát triển chip của họ mà còn là bước đi quan trọng để đối phó với áp lực từ các đối thủ cạnh tranh.
Dù trong những năm gần đây Meta đã tích cực phát triển chip AI tự chế, nhưng việc mua sắm quy mô lớn chip Nvidia lần này được xem là nhằm khóa chặt nhu cầu tính toán bên ngoài trong dài hạn, đảm bảo họ không bị tụt lại phía sau trong cạnh tranh thương mại AI so với Google, Microsoft và các đối thủ khác. Zuckerberg nhấn mạnh, bước đi này là nền tảng quan trọng để hiện thực hóa tầm nhìn “cung cấp siêu trí tuệ cá nhân cho người dùng toàn cầu.”
Ngoài ra, Meta còn đề cập trong tuyên bố rằng công ty sẽ tích hợp công nghệ an ninh của Nvidia vào các chức năng AI của ứng dụng nhắn tin WhatsApp. Zuckerberg cho biết, việc đưa công nghệ tính toán bí mật của Nvidia vào giúp Meta nâng cao hiệu suất đồng thời đáp ứng các yêu cầu khắt khe về an toàn dữ liệu và quyền riêng tư.
Các nhà phân tích cho rằng quy mô hợp tác này có thể đạt trị giá hàng trăm tỷ USD. Tháng trước, Meta công bố dự kiến chi tiêu vốn cho năm 2026 lên tới 1350 tỷ USD, phần lớn trong đó dành cho xây dựng hạ tầng AI. Nhà phân tích chip của Creative Strategies, Ben Bajarin, nhận định: “Việc Meta quy mô lớn sử dụng các giải pháp toàn diện của Nvidia, kết hợp CPU và GPU, đã xác nhận chiến lược hạ tầng ‘toàn bộ chuỗi’ của Nvidia trong lĩnh vực hạ tầng AI.” Ông nhấn mạnh, các chip này được thiết kế đặc biệt cho các nhiệm vụ suy luận và tác vụ trung gian trí tuệ, trong khi ngành AI đang chuyển từ giai đoạn huấn luyện sang suy luận.
Điều đáng chú ý là, trong những năm gần đây, Meta đã thúc đẩy chiến lược tự phát triển chip AI nhằm tối ưu hiệu suất cho các tác vụ đặc thù và giảm chi phí. Tuy nhiên, theo nguồn tin thân cận, các dự án này gặp phải thách thức về công nghệ và trì hoãn trong triển khai, buộc công ty phải tiếp tục dựa vào các giải pháp đã thành công của Nvidia. Dù vậy, Meta vẫn chưa hoàn toàn phụ thuộc vào Nvidia; tháng 11 năm ngoái, có tin đồn rằng Meta đang xem xét giới thiệu bộ xử lý tensor của Google (TPU) trong trung tâm dữ liệu vào năm 2027 để đa dạng hóa nguồn lực tính toán.
Mối hợp tác này đã gây ảnh hưởng trực tiếp đến đối thủ cạnh tranh của Nvidia là AMD. Sau khi thông tin được công bố, giá cổ phiếu AMD đã giảm hơn 4% trong giao dịch sau giờ, trong khi cổ phiếu của Meta và Nvidia tăng lần lượt 1.5% và 1.8%, cho thấy thị trường đánh giá cao hợp tác này.
Các nhà phân tích thị trường cho rằng đơn hàng quy mô lớn này đã xóa bỏ lo ngại về việc các khách hàng lớn chuyển sang tự phát triển chip. Các chuyên gia của phố Wall nhận định, Nvidia đã củng cố vị thế trong lĩnh vực hạ tầng AI bằng cách kết hợp Grace CPU, Rubin GPU và công nghệ mạng Spectrum-X, trong khi kế hoạch chi tiêu vốn lớn của Meta thể hiện quyết tâm chiếm lĩnh vị trí dẫn đầu AI. Tuy nhiên, cũng có ý kiến lo ngại rằng Meta có thể phải đối mặt với áp lực lợi nhuận, nhưng chiến lược đảm bảo năng lực tính toán dài hạn vẫn được xem là biện pháp phòng thủ hiệu quả chống lại các đối thủ cạnh tranh.
Từ góc độ ngành, mối hợp tác giữa Nvidia và Meta phản ánh xu hướng chuyển trọng tâm tính toán AI từ huấn luyện mô hình sang giai đoạn suy luận. Các nhiệm vụ suy luận đòi hỏi khả năng tính toán hiệu quả, độ trễ thấp, và CPU Grace của Nvidia chính là thiết kế dành riêng cho nhu cầu này, với hiệu năng trên tiêu thụ năng lượng vượt trội so với CPU truyền thống. Khi số lượng người dùng hàng tỷ mỗi ngày của Meta ngày càng tăng trong các yêu cầu suy luận AI, việc sử dụng CPU Grace tối ưu hóa chuyên biệt sẽ là chiến lược then chốt để kiểm soát tiêu thụ năng lượng và nâng cao hiệu quả.
Thỏa thuận hợp tác này cũng báo hiệu một cuộc thay đổi lớn trong cạnh tranh ngành. Đối với các tập đoàn chip truyền thống như Intel và AMD, việc Meta chuyển hướng mạnh mẽ sang kiến trúc CPU Arm là một cảnh báo nghiêm trọng, cho thấy cấu trúc quyền lực trong thị trường trung tâm dữ liệu quy mô lớn đang có sự dịch chuyển cấu trúc rõ rệt. Theo nhiều báo cáo phân tích uy tín, các doanh nghiệp hàng đầu như Amazon, Alphabet và Meta vẫn duy trì tốc độ tăng trưởng chi tiêu vốn cao trong năm tài chính 2026, với hàng trăm tỷ USD đổ vào xây dựng trung tâm dữ liệu dựa trên GPU của Nvidia. Nhu cầu liên tục và có độ tin cậy cao này đã phần nào xoa dịu lo ngại trước đó về “lợi nhuận đầu tư AI không đủ”.