Google pretende hoy robarle el protagonismo a OpenAI con el lanzamiento de su modelo Gemini 3 Flash, más rápido y económico, que se basa en Gemini 3 lanzado el mes pasado. La compañía también lo ha convertido en el modelo predeterminado para la aplicación Gemini y el modo AI en búsqueda.
El nuevo modelo Flash llega seis meses después de que Google anunciara el modelo Flash Gemini 2.5 y viene con mejoras significativas. En los puntos de referencia, el modelo Gemini 3 Flash supera significativamente a su predecesor y en algunos aspectos iguala el rendimiento de otros modelos Frontier como Gemini 3 Pro y GPT 5.2.
Por ejemplo, en el punto de referencia del último examen de Humanity, que está diseñado para evaluar la experiencia en una variedad de dominios, obtuve una puntuación del 33,7 % sin utilizar la herramienta. En comparación, Gemini 3 Pro obtuvo una puntuación del 37,5%, Gemini 2.5 Flash obtuvo una puntuación del 11% y el GPT-5.2 recientemente lanzado tuvo una puntuación del 34,5%.
En el benchmark MMMU-Pro de multimodalidad e inferencia, el nuevo modelo supera a todos los competidores con una puntuación del 81,2%.
Implementación para consumidores
Google ha adoptado Gemini 3 Flash como modelo predeterminado para las aplicaciones Gemini en todo el mundo, reemplazando a Gemini 2.5 Flash. Los usuarios aún pueden seleccionar modelos Pro en el selector de modelos para preguntas de matemáticas y codificación.
La compañía dice que su nuevo modelo es mejor para identificar contenido multimodal y brindar respuestas basadas en él. Por ejemplo, puedes subir un vídeo corto de pickleball y pedir consejos. Puedes intentar dibujar un boceto y pedirle al modelo que adivine lo que estás dibujando. Alternativamente, también puedes cargar grabaciones de audio para analizar y generar cuestionarios.
La compañía también dijo que el modelo puede comprender mejor la intención de la consulta de un usuario y generar respuestas más visuales utilizando elementos como imágenes y tablas.
evento de crisis tecnológica
san francisco
|
13-15 de octubre de 2026
También puede utilizar el nuevo modelo para crear un prototipo de su aplicación en la aplicación Gemini mediante indicaciones.
El Gemini 3 Pro ahora está disponible para todos en los EE. UU. en la Búsqueda, y más personas en los EE. UU. ahora también pueden acceder al modelo de imagen Nano Banana Pro en la Búsqueda.
Disponibilidad para empresas y desarrolladores
Google dijo que empresas como JetBrains, Figma, Cursor, Harvey y Latitude ya están utilizando el modelo Gemini 3 Flash, que está disponible a través de Vertex AI y Gemini Enterprise.
Para los desarrolladores, la compañía ofrece este modelo en versión preliminar a través de su API y en la nueva herramienta de codificación de Google, Antigravity, lanzada el mes pasado.
Según la compañía, Gemini 3 Pro obtiene una puntuación del 78% en el punto de referencia de codificación validado por SWE Bench, y solo GPT-5.2 lo supera. Añadió que el modelo es ideal para análisis de vídeo, extracción de datos y preguntas y respuestas visuales, y su velocidad lo hace adecuado para flujos de trabajo rápidos y repetibles.

El modelo tiene un precio de 0,50 dólares por millón de tokens de entrada y 3,00 dólares por millón de tokens de salida. Esto es un poco más caro que los 0,30 dólares por millón de tokens de entrada y los 2,50 dólares por millón de tokens de salida de Gemini Flash 2.5. Sin embargo, Google afirma que el nuevo modelo es tres veces más rápido que el modelo Gemini 2.5 Pro. Además, las tareas de pensamiento utilizan un promedio de un 30% menos de tokens que 2.5 Pro. Esto significa que, en general, puede ahorrar en la cantidad de tokens para una tarea determinada.

«Estamos posicionando a Flash como un modelo emblemático. Por ejemplo, si nos fijamos en los precios de entrada y salida en la parte superior de esta tabla, Flash es simplemente un producto mucho más barato desde la perspectiva de los precios de entrada y salida. Entonces, para muchas empresas, realmente permite tareas masivas», dijo a TechCrunch Tulsi Doshi, directora senior y jefa de producto de Gemini Models, en una sesión informativa.
Desde el lanzamiento de Gemini 3, Google ha procesado más de 1 billón de tokens por día con su API, en medio de una feroz guerra de lanzamientos y rendimiento con OpenAI.
A principios de este mes, Sam Altman supuestamente envió un memorando interno de «código rojo» al equipo de OpenAI después de que el tráfico de ChatGPT disminuyera a medida que aumentaba la participación de mercado de Google entre los consumidores. Desde entonces, OpenAI lanzó GPT-5.2 y nuevos modelos de generación de imágenes. OpenAI también promocionó su creciente adopción en las empresas y dijo que el volumen de mensajes de ChatGPT se ha multiplicado por ocho desde noviembre de 2024.
Google no abordó directamente la competencia con OpenAI, pero dijo que el lanzamiento del nuevo modelo requiere que todas las empresas sean proactivas.
«Lo que está sucediendo en toda la industria es que todos estos modelos siguen siendo geniales, se desafían entre sí y traspasan fronteras. Y creo que también es fantástico que las empresas estén lanzando estos modelos», afirmó Doshi.
«También estamos introduciendo nuevos puntos de referencia y nuevos métodos para evaluar estos modelos, lo que también es alentador para nosotros».
Source link
