O Google apresenta o Gemma 4 como o seu modelo de IA aberto mais avançado para tarefas de raciocínio e agentes

O Google introduziu a Gemma 4, a sua mais recente família de modelos de inteligência artificial aberta, focada em raciocínio avançado e fluxos de trabalho em estilo de agentes.

Resumo

  • O Google lança a Gemma 4, a sua mais recente família de modelos de IA aberta, focada em raciocínio avançado e fluxos de trabalho em estilo de agentes.
  • O modelo está disponível em quatro tamanhos, variando entre variantes para dispositivos na borda e sistemas de elevado desempenho, e suporta mais de 140 línguas.
  • A Gemma 4 introduz funcionalidades como raciocínio multi-etapa, ferramentas de agente e geração de código offline, com modelos acessíveis via AI Studio e Edge Gallery.

Num post de 2 de abril no X, Demis Hassabis, diretor executivo da Google DeepMind, anunciou o lançamento da Gemma 4, a sua mais recente família de modelos de inteligência artificial aberta, focada em raciocínio avançado e fluxos de trabalho de agentes.

Os modelos abertos foram concebidos para serem modificados e adaptados por programadores, permitindo-lhes personalizar sistemas para casos de uso específicos.

O lançamento acontece num contexto de forte adoção do ecossistema Gemma. Desde o primeiro lançamento, os programadores registaram mais de 400 milhões de descarregamentos e criaram mais de 100.000 variantes, de acordo com a Google.

A família de modelos em quatro níveis tem como alvo hardware e casos de uso diversificados

Hassabis afirmou que a Gemma 4 está disponível em quatro tamanhos, cada um adequado a diferentes cargas de trabalho e configurações de hardware, e pode ser ajustada para tarefas especializadas.

A versão maior, 31B, é um modelo denso construído para “um grande desempenho bruto”, dando prioridade à precisão e à profundidade da saída, embora exija recursos informáticos topo de gama.

Ao lado disso, existe o modelo 26B Mixture of Experts (MoE), concebido para menor latência. Ele ativa menos parâmetros durante a inferência, permitindo respostas mais rápidas e uma eficiência melhorada, embora com alguns compromissos na qualidade da saída.

Para casos de uso mais leves, a Google introduziu os modelos 2B e 4B. Estes são optimizados para dispositivos na borda como smartphones e sistemas compactos, permitindo execução no próprio dispositivo com menores exigências computacionais.

O que é que pode fazer com a Google Gemma 4?

A Gemma 4 introduz capacidades de raciocínio melhoradas, permitindo-lhe lidar com tarefas que exigem lógica multi-etapa e resolução estruturada de problemas. Também demonstrou desempenho mais forte em benchmarks ligados à matemática e ao cumprimento de instruções.

Os modelos suportam fluxos de trabalho em estilo de agentes através de chamada nativa de funções, saídas JSON estruturadas e instruções a nível de sistema. Estas funcionalidades permitem aos programadores construir sistemas autónomos que podem interagir com APIs, ferramentas e serviços externos. A Gemma 4 também permite geração de código offline de alta qualidade, transformando máquinas locais em assistentes de programação por IA.

Outra funcionalidade importante é a sua janela de contexto alargada. Os modelos na borda suportam até 128K tokens, enquanto as variantes maiores estendem isso para 256K tokens, permitindo processar documentos longos ou bases de código num único prompt. Os modelos são treinados em mais de 140 línguas, o que permite uma implementação global.

Sundar Pichai republicou o anúncio, dizendo que a Gemma 4 está a “embalar uma quantidade incrível de inteligência por parâmetro”.

Os modelos foram construídos para funcionar num vasto leque de hardware, desde smartphones e laptops até GPUs e estações de trabalho de programadores, com variantes mais pequenas capazes de correr localmente sem acesso constante à Internet.

Os programadores podem começar a testar a Gemma 4 em várias plataformas, com os modelos 31B e 26B MoE disponíveis no Google AI Studio para casos de uso de maior desempenho, enquanto as variantes mais pequenas E2B e E4B estão acessíveis através do Google AI Edge Gallery para aplicações no dispositivo e ligeiras.

Declaração: Este artigo não constitui aconselhamento de investimento. O conteúdo e os materiais apresentados nesta página destinam-se apenas a fins educativos.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • Comentar
  • Republicar
  • Partilhar
Comentar
Adicionar um comentário
Adicionar um comentário
Nenhum comentário
  • Fixar