Google presenta Gemma 4 como su modelo de IA abierto más avanzado para tareas de razonamiento y agentes

Google ha introducido Gemma 4, su última familia de modelos de inteligencia artificial abierta, enfocada en razonamiento avanzado y flujos de trabajo tipo agentes.

Resumen

  • Google lanza Gemma 4, su última familia de modelos de IA abierta, enfocada en razonamiento avanzado y flujos de trabajo tipo agentes.
  • El modelo está disponible en cuatro tamaños, desde variantes para dispositivos en el borde hasta sistemas de alto rendimiento, y admite más de 140 idiomas.
  • Gemma 4 introduce funciones como razonamiento de varios pasos, herramientas para agentes y generación de código sin conexión, con modelos accesibles mediante AI Studio y Edge Gallery.

En una publicación del 2 de abril en X, Demis Hassabis, director ejecutivo de Google DeepMind, anunció el lanzamiento de Gemma 4, su última familia de modelos de inteligencia artificial abierta, enfocada en razonamiento avanzado y flujos de trabajo de agentes.

Los modelos abiertos están diseñados para que los desarrolladores los modifiquen y adapten, lo que les permite ajustar los sistemas a casos de uso específicos.

El lanzamiento llega en un momento de fuerte adopción del ecosistema de Gemma. Desde que se lanzó la primera versión, los desarrolladores han registrado más de 400 millones de descargas y han creado más de 100.000 variantes, según Google.

La familia de modelos de cuatro niveles apunta a hardware y casos de uso diversos

Hassabis dijo que Gemma 4 está disponible en cuatro tamaños, cada uno adecuado para diferentes cargas de trabajo y configuraciones de hardware, y que se puede ajustar mediante fine-tuning para tareas especializadas.

La versión más grande, 31B, es un modelo denso construido para un “gran rendimiento bruto”, dando prioridad a la precisión y a la profundidad de la salida, aunque requiere recursos informáticos de gama alta.

Junto a él está el modelo 26B Mixture of Experts (MoE), diseñado para una latencia más baja. Activa menos parámetros durante la inferencia, lo que permite respuestas más rápidas y una eficiencia mejorada, aunque con algunos compromisos en la calidad de la salida.

Para casos de uso más ligeros, Google ha presentado los modelos 2B y 4B. Estos están optimizados para dispositivos en el borde, como smartphones y sistemas compactos, lo que habilita la ejecución en el dispositivo con menores demandas computacionales.

¿Qué puedes hacer con Google Gemma 4?

Gemma 4 introduce capacidades de razonamiento mejoradas, lo que le permite gestionar tareas que requieren lógica de varios pasos y una resolución de problemas estructurada. También ha mostrado un rendimiento más sólido en benchmarks vinculados a matemáticas y al seguimiento de instrucciones.

Los modelos admiten flujos de trabajo tipo agentes mediante llamada nativa de funciones, salidas JSON estructuradas e instrucciones a nivel de sistema. Estas funciones permiten a los desarrolladores construir sistemas autónomos que pueden interactuar con APIs, herramientas y servicios externos. Gemma 4 también habilita la generación de código sin conexión de alta calidad, convirtiendo las máquinas locales en asistentes de codificación con IA.

Otra característica clave es su ventana de contexto ampliada. Los modelos en el borde admiten hasta 128K tokens, mientras que las variantes más grandes amplían esto hasta 256K tokens, lo que permite procesar documentos largos o bases de código en un solo prompt. Los modelos se entrenan en más de 140 idiomas, lo que permite su despliegue global.

Sundar Pichai compartió nuevamente el anuncio, diciendo que Gemma 4 “está empaquetando una cantidad increíble de inteligencia por parámetro”.

Los modelos están diseñados para ejecutarse en un amplio rango de hardware, desde smartphones y laptops hasta GPUs y estaciones de trabajo para desarrolladores, con variantes más pequeñas capaces de ejecutarse localmente sin acceso constante a internet.

Los desarrolladores pueden empezar a probar Gemma 4 en varias plataformas: los modelos 31B y 26B MoE están disponibles en Google AI Studio para casos de uso de mayor rendimiento, mientras que las variantes más pequeñas E2B y E4B se pueden acceder a través de Google AI Edge Gallery para aplicaciones en el dispositivo y ligeras.

Divulgación: este artículo no constituye asesoramiento de inversión. El contenido y los materiales que se muestran en esta página tienen fines exclusivamente educativos.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
Añadir un comentario
Añadir un comentario
Sin comentarios
  • Anclado