Gemini 3 Flash conquista el trono: el nuevo modelo de Google desafía a OpenAI con velocidad, economía y rendimiento sin compromisos

Google ha ufficialmente lanzado Gemini 3 Flash, posicionándolo como el modelo predeterminado en toda la plataforma Gemini global. El debut representa una aceleración significativa en la carrera tecnológica con OpenAI, con la empresa de Mountain View que ya procesa más de 1 billón de tokens al día a través de su API.

Rendimiento que sorprende: los números hablan claro

Lo que hace interesante este lanzamiento no es solo la velocidad—tema que volverá con frecuencia—sino los benchmarks que desmontan cualquier duda. En la prueba Humanity’s Last Exam, Gemini 3 Flash obtuvo un 33,7%, prácticamente alineado con GPT-5.2 (34,5%) y no muy lejos del Pro de Google (37,5%). ¿La diferencia? Flash cuesta mucho menos y es más rápido.

Pero el verdadero golpe llega con MMMU-Pro, el benchmark de razonamiento multimodal donde el nuevo modelo aplasta a la competencia con un 81,2%, superando literalmente a todos los competidores. Estos no son solo números en papel: significan que puedes cargar un video, un audio, un dibujo y obtener respuestas sofisticadas sin esperar minutos.

Velocidad como arma competitiva: el selector de velocidad al servicio de los usuarios

Google ha enfatizado deliberadamente un aspecto crucial: el nuevo modelo es tres veces más rápido que Gemini 2.5 Pro. No es solo una métrica técnica, es una experiencia concreta. La app Gemini ahora ofrece un selector de velocidad implícito: puedes usar Flash para casi todo—análisis de video, extracción de datos, razonamiento visual—sin comprometer la calidad, o seleccionar el modelo Pro para preguntas de programación avanzada o matemáticas complejas.

Esta flexibilidad está pensada estratégicamente. Para tareas de razonamiento, el nuevo modelo consume un 30% menos de tokens en comparación con el 2.5 Pro, lo que se traduce en ahorros concretos para las empresas incluso si el precio por token ha aumentado ligeramente.

El precio cuenta una historia: eficiencia económica

Gemini 3 Flash cuesta $0,50 por 1 millón de tokens en entrada y $3,00 por 1 millón de tokens en salida, frente a los $0,30 y $2,50 del modelo anterior. La pregunta obvia: ¿por qué pagar más?

La respuesta está en la velocidad combinada con la eficiencia. Si el modelo es tres veces más rápido y usa un 30% menos de tokens para ciertos tareas, el costo total por transacción podría disminuir efectivamente. Tulsee Doshi, Directora Senior de Producto para Gemini, subrayó que “Flash es el modelo de trabajo” para empresas que deben gestionar volúmenes masivos de solicitudes. No es el modelo más inteligente, es el modelo más inteligente desde el punto de vista económico.

Ya en producción: JetBrains, Figma, Harvey no esperan

Google no habla de posibilidades futuras, sino de realidad presente. Empresas como JetBrains, Figma, Cursor, Harvey y Latitude ya están aprovechando Gemini 3 Flash a través de Vertex AI y Gemini Enterprise. Para los desarrolladores, el modelo está disponible en vista previa vía API y en Antigravity, la herramienta de programación lanzada el mes pasado.

En el benchmark SWE-bench verified para programación, el modelo obtiene un 78%, solo por detrás de GPT-5.2. Esto significa que es suficientemente sofisticado para tareas reales de codificación, aunque no la mejor opción para algoritmos complejos y optimizaciones borderline.

El contexto de la guerra de IA: qué está pasando realmente

Este lanzamiento no surge de la nada. Semanas atrás, Sam Altman habría enviado un memo “Code Red” internamente porque el tráfico de ChatGPT estaba bajando mientras la cuota de Google entre los consumidores crecía. OpenAI respondió lanzando GPT-5.2 y nuevos modelos generativos de imágenes, presumiendo un crecimiento de 8 veces en el volumen de mensajes desde noviembre de 2024.

Google no entra directamente en esta polémica. Doshi prefirió un tono diplomático: “Lo que pasa es que todos estos modelos siguen siendo extraordinarios, se desafían entre sí, empujan los límites. Y creo que es fantástico que las empresas lancen estos modelos.”

Traducción: sí, hay una competencia feroz, pero Google la legitima como un estímulo positivo para la innovación.

Disponibilidad global: el modelo predeterminado desde hoy

Gemini 3 Flash reemplaza a Gemini 2.5 Flash como predeterminado en la app Gemini y en la búsqueda AI. Los usuarios globales no tienen que hacer nada: verán inmediatamente el nuevo modelo. Para quienes prefieren el modelo Pro, sigue siendo seleccionable desde el menú.

El modelo ya está disponible en Estados Unidos para búsqueda, con un despliegue global en curso. La app soporta cargas de videos, audios, bocetos, documentos—el modelo los procesa y genera análisis, cuestionarios, consejos, tablas.

Gemini 3 Flash no es el modelo más potente en absoluto, pero sí el más inteligente desde el punto de vista económico y de velocidad. En una competencia donde todos los jugadores obtienen puntos técnicos similares, gana quien entrega el resultado más rápido al precio más competitivo. Este es el selector que Google ha elegido para diferenciarse.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • Comentar
  • Republicar
  • Compartir
Comentar
0/400
Sin comentarios
  • Anclado

Opera con criptomonedas en cualquier momento y lugar
qrCode
Escanea para descargar la aplicación de Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)