Nvidia e Meta estabelecem parceria de longo prazo para impulsionar a inovação na infraestrutura de IA

17 de fevereiro, os gigantes tecnológicos americanos Meta e Nvidia anunciaram o estabelecimento de uma nova parceria estratégica de longo prazo. Esta colaboração abrange não apenas a implementação em larga escala de chips, mas também uma otimização completa, desde hardware até software. Num contexto de competição cada vez mais acirrada na área de inteligência artificial, esta notícia rapidamente chamou a atenção do setor.

Após o anúncio, as ações da Meta e da Nvidia subiram no after-hours, enquanto as da AMD caíram mais de 4% em um momento. De acordo com as informações divulgadas por ambas as partes, um dos principais pontos desta colaboração é que a Meta implantará milhões de chips Nvidia nos seus centros de dados, incluindo GPUs com arquitetura Blackwell, a próxima geração de GPUs com arquitetura Rubin e CPUs Grace baseadas em Arm. Isto marca a primeira implementação em grande escala da CPU Grace da Nvidia, representando um forte desafio ao mercado tradicional de arquiteturas x86.

Além disso, a Meta planeja introduzir, até 2027, a série de processadores Vera, mais potente, para consolidar ainda mais sua posição no campo de capacidade de IA de alta eficiência energética. Esta colaboração não se limita à simples aquisição de hardware; as equipes de engenharia de ambas as empresas irão colaborar no design de hardware e software para a próxima geração de modelos de linguagem em larga escala da Meta (como o sucessor do Llama4), visando otimizar o desempenho subjacente.

A Nvidia, ao integrar CPU, GPU, tecnologias de rede (como a plataforma Ethernet Spectrum-X) e o ecossistema de software, oferece à Meta uma solução unificada que cobre treinamento, inferência e processamento de dados. Jensen Huang afirmou que, atualmente, nenhuma outra empresa consegue implantar inteligência artificial em escala tão grande quanto a Meta, combinando pesquisa de ponta com infraestrutura industrial para criar o maior sistema do mundo para bilhões de usuários.

Zuckerberg destacou que ampliar a colaboração com a Nvidia, usando a plataforma Vera Rubin para construir clusters líderes, é uma pedra angular para alcançar a visão de “fornecer inteligência superpessoal para cada pessoa no mundo”. Apesar de a Meta ter desenvolvido chips de IA próprios nos últimos anos, esta grande aquisição de chips Nvidia é vista como uma estratégia de longo prazo para garantir capacidade computacional externa, evitando ficar atrás de concorrentes como Google e Microsoft na comercialização de IA.

A Meta também mencionou que irá integrar a tecnologia de segurança da Nvidia nas funções de IA do WhatsApp. Zuckerberg afirmou que, ao incorporar a tecnologia de computação confidencial da Nvidia, a Meta poderá melhorar o desempenho ao mesmo tempo em que atende aos rigorosos requisitos de segurança de dados e privacidade.

Analistas acreditam que o valor desta parceria pode atingir centenas de bilhões de dólares. No mês passado, a Meta anunciou que seus gastos de capital até 2026 poderiam chegar a 135 bilhões de dólares, grande parte dos quais será destinada à construção de infraestrutura de IA. Ben Bajarin, analista de chips da Creative Strategies, destacou que a adoção em larga escala pela Meta valida a estratégia de infraestrutura “full-stack” da Nvidia, que combina CPU e GPU.

Vale notar que, nos últimos anos, a Meta tem avançado com sua estratégia de desenvolver chips de IA próprios, visando otimizar desempenho e reduzir custos para cargas de trabalho específicas. No entanto, fontes próximas revelaram que o projeto enfrentou desafios técnicos e atrasos na implantação, levando a empresa a continuar dependendo das soluções maduras da Nvidia.

Esta colaboração impacta diretamente os concorrentes da Nvidia, como a AMD. Após o anúncio, as ações da AMD caíram mais de 4% no after-hours, enquanto as da Meta e Nvidia subiram 1,5% e 1,8%, respectivamente, demonstrando o alto reconhecimento do mercado por esta parceria.

Do ponto de vista do setor, a colaboração entre Nvidia e Meta reflete uma mudança de foco do treinamento de modelos para a fase de inferência na computação de IA. As tarefas de inferência exigem capacidade de cálculo eficiente e de baixa latência, e a CPU Grace da Nvidia foi projetada especificamente para atender a essa demanda, apresentando uma relação desempenho-consumo de energia significativamente superior às CPUs tradicionais.

A concretização deste acordo também indica uma forte reconfiguração na dinâmica competitiva do setor. Para gigantes tradicionais de chips como Intel e AMD, a grande inclinação da Meta para CPUs baseadas em arquitetura Arm é um sinal de alerta, sugerindo que a estrutura de poder no mercado de data centers de grande escala está passando por uma mudança estrutural.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)