Meta amplia colaboração com a NVIDIA, intensificando a competição no setor

17 de fevereiro, a Meta e a Nvidia, duas gigantes tecnológicas americanas, anunciaram a criação de uma nova parceria de longo prazo, que envolve não apenas a implantação em larga escala de chips, mas também a otimização de toda a cadeia, desde hardware até software. Num momento em que a competição na área de inteligência artificial se intensifica, esta notícia de grande impacto despertou amplo interesse no setor. Após o anúncio, as ações da Meta e da Nvidia subiram após o fecho do mercado, enquanto as da AMD caíram mais de 4% numa sessão de negociação posterior.

De acordo com as informações divulgadas por ambas as partes, um dos principais pontos desta colaboração é que a Meta irá implantar milhões de chips Nvidia nos seus centros de dados, incluindo GPUs com arquitetura Blackwell, a próxima geração de GPUs com arquitetura Rubin e processadores centrais baseados em Arm, chamados Grace. É importante destacar que esta é a primeira implantação em larga escala do CPU Grace da Nvidia, desafiando o monopólio tradicional da arquitetura x86. Além disso, a Meta planeja introduzir, até 2027, uma série de processadores Vera com desempenho mais elevado, reforçando ainda mais sua presença no campo de IA de alta eficiência energética.

Esta parceria vai muito além de uma simples aquisição de hardware. As equipes de engenharia de ambas as empresas irão colaborar no projeto de hardware e software para a próxima geração de modelos de linguagem de grande escala da Meta (como o sucessor do Llama4, de codinome “Avocado”), visando otimizar o desempenho na base. Ao integrar CPU, GPU, tecnologias de rede (como a plataforma Ethernet Spectrum-X) e o ecossistema de software, a Nvidia oferece à Meta uma solução unificada que cobre treinamento, inferência e processamento de dados.

Jensen Huang, fundador da Nvidia, afirmou que atualmente nenhuma outra empresa consegue implantar IA em escala tão grande quanto a Meta. Ele destacou que a Meta combina pesquisa de ponta com infraestrutura industrial, criando o maior sistema do mundo para bilhões de usuários. “Nenhuma empresa no mundo consegue alcançar a escala de implantação de IA da Meta, e a capacidade de co-desenho permitirá maximizar o potencial tecnológico de ambas as partes”, disse.

Através de um projeto de integração profunda de CPU, GPU, rede e software, a Nvidia fornecerá uma plataforma completa para os pesquisadores e engenheiros da Meta, ajudando-os a construir a próxima geração de avanços em inteligência artificial. O CEO da Meta, Mark Zuckerberg, afirmou que a ampliação da parceria com a Nvidia, usando sua plataforma Vera Rubin para construir clusters de ponta, permitirá oferecer uma superinteligência pessoal a todos no mundo. Para a Meta, essa colaboração é tanto um complemento à sua estratégia de chips próprios quanto uma medida-chave para enfrentar a concorrência.

Apesar de a Meta ter desenvolvido ativamente seus próprios chips de IA nos últimos anos, a compra em larga escala de chips Nvidia é vista como uma estratégia de garantir uma fonte de poder computacional externa a longo prazo, assegurando que não fique atrás de concorrentes como Google e Microsoft na comercialização de IA. Zuckerberg enfatizou que essa iniciativa é um passo fundamental para realizar a visão de “fornecer superinteligência pessoal a usuários globais”.

Além disso, a Meta mencionou em comunicado que integrará a tecnologia de segurança da Nvidia em recursos de IA do WhatsApp. Zuckerberg afirmou que, ao incorporar a tecnologia de computação confidencial da Nvidia, a Meta poderá melhorar o desempenho ao mesmo tempo em que atende aos rigorosos requisitos de segurança de dados e privacidade.

Analistas estimam que o valor dessa parceria pode atingir centenas de bilhões de dólares. No mês passado, a Meta anunciou que seus gastos de capital até 2026 poderiam chegar a até 1350 bilhões de dólares, grande parte dos quais será destinada à infraestrutura de IA. Ben Bajarin, analista de chips da Creative Strategies, comentou: “A adoção em larga escala pela Meta valida a estratégia de infraestrutura ‘full-stack’ da Nvidia, que combina CPU e GPU.” Ele destacou que esses chips são projetados especificamente para cargas de trabalho de inferência e tarefas de agentes inteligentes, enquanto a indústria de IA está passando do período de treinamento para o de inferência.

É importante notar que, nos últimos anos, a Meta tem avançado com sua estratégia de desenvolver chips de IA próprios, visando otimizar desempenho e reduzir custos para cargas de trabalho específicas. No entanto, fontes próximas revelaram que esses projetos enfrentaram desafios técnicos e atrasos na implantação, levando a empresa a continuar dependendo de soluções maduras da Nvidia. Ainda assim, a Meta não depende totalmente da Nvidia; em novembro do ano passado, surgiram informações de que a empresa estaria considerando introduzir, até 2027, processadores tensor (TPU) do Google em seus centros de dados, para diversificar suas fontes de poder computacional.

Esta colaboração teve impacto direto na concorrência da Nvidia, especialmente na AMD. Após o anúncio, as ações da AMD caíram mais de 4% na negociação pós-fechamento, enquanto as da Meta e Nvidia subiram 1,5% e 1,8%, respectivamente, refletindo o alto reconhecimento do mercado por essa parceria.

O mercado acredita que esse pedido de grande escala dissipou as preocupações de investidores quanto à migração de grandes clientes para chips próprios. Analistas de Wall Street apontam que a Nvidia, ao consolidar sua infraestrutura de IA com a combinação de Grace CPU, Rubin GPU e tecnologia de rede Spectrum-X, reforçou sua liderança no setor. A grande escala de gastos de capital da Meta também demonstra sua determinação em conquistar a liderança em IA. No entanto, há também preocupações de que a Meta possa enfrentar pressões de lucro, embora sua estratégia de garantir capacidade computacional a longo prazo seja vista como uma defesa eficaz contra os concorrentes.

Do ponto de vista do setor, a parceria entre Nvidia e Meta reflete uma mudança de foco na computação de IA, que está migrando do treinamento de modelos para a inferência. Tarefas de inferência exigem capacidades de cálculo eficientes e de baixa latência, e o CPU Grace da Nvidia foi projetado especificamente para atender a essa demanda, apresentando uma relação desempenho-consumo de energia significativamente superior aos CPUs tradicionais. Com a crescente demanda diária de bilhões de usuários por inferência de IA, a adoção do CPU Grace otimizado será uma estratégia-chave para controlar o consumo de energia e aumentar a eficiência.

Este acordo também sinaliza uma mudança significativa na dinâmica competitiva do setor. Para gigantes tradicionais de chips como Intel e AMD, a preferência da Meta por CPUs baseadas em arquitetura Arm é um alerta sério, indicando que a estrutura de poder no mercado de data centers de grande escala está passando por uma transformação estrutural. Relatórios de análises indicam que empresas líderes como Amazon, Alphabet e Meta continuarão a aumentar seus gastos de capital em 2026, com centenas de bilhões de dólares investidos em centros de dados baseados em GPUs Nvidia. Essa demanda contínua e altamente previsível ajuda a mitigar preocupações anteriores do mercado sobre o retorno do investimento em IA.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
0/400
Nenhum comentário
  • Fixar

Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)