El laboratorio chino de inteligencia artificial DeepSeek ha lanzado dos versiones preliminares de su último modelo de lenguaje a gran escala, DeepSeek V4. Esta es una actualización muy esperada del modelo V3.2 del año pasado y el modelo de inferencia R1 que lo acompaña y que arrasó en el mundo de la IA.
Según la compañía, tanto DeepSeek V4 Flash como V4 Pro son modelos mixtos expertos con una ventana de contexto de 1 millón de tokens cada uno, suficiente para utilizar grandes bases de código y documentación con indicaciones. Los enfoques mixtos de expertos activan solo una cierta cantidad de parámetros para cada tarea para reducir el costo de inferencia.
Con un total de 1,6 billones de parámetros (49 mil millones activos), el modelo Pro es el modelo de peso abierto más grande disponible, más del doble que el Kimi K 2.6 de Moonshot AI (1,1 billones), el M1 de MiniMax (456 mil millones) y el DeepSeek V3.2 (671 mil millones). El flash V4 más pequeño tiene 284 mil millones de parámetros (13 mil millones activos).
DeepSeek dice que ambos modelos son más eficientes y eficaces que DeepSeek V3.2 debido a mejoras arquitectónicas y «casi han cerrado la brecha» con los modelos líderes actuales tanto en modelos abiertos como cerrados en puntos de referencia de inferencia.
La compañía afirma que el nuevo modelo V4-Pro-Max supera a los modelos equivalentes de código abierto en los puntos de referencia de inferencia y supera a GPT-5.2 y Gemini 3.0 Pro de OpenAI en algunas tareas. En el punto de referencia de la competencia de codificación, DeepSeek dijo que el rendimiento de ambos modelos V4 era «comparable al GPT-5.4».

Sin embargo, estos modelos parecen estar ligeramente por detrás de los modelos Frontier en las pruebas de conocimiento, específicamente el GPT-5.4 de OpenAI y el último Gemini 3.1 Pro de Google. El retraso sugiere una «trayectoria de desarrollo de aproximadamente tres a seis meses por detrás de los modelos Frontier de última generación», escribió el laboratorio.
Tanto V4 Flash como V4 Pro solo admiten texto, a diferencia de muchos de sus pares de código cerrado, que brindan soporte para la comprensión y generación de audio, video e imágenes.
evento de crisis tecnológica
San Francisco, California
|
13-15 de octubre de 2026
En particular, el DeepSeek V4 es mucho más asequible que cualquier modelo Frontier disponible actualmente. El modelo V4 Flash más pequeño cuesta $0,14 por millón de tokens de entrada y $0,28 por millón de tokens de salida, menos que GPT-5.4 Nano, Gemini 3.1 Flash, GPT-5.4 Mini y Claude Haiku 4.5. Mientras tanto, el modelo V4 Pro más grande cuesta $0,145 por millón de tokens de entrada y $3,48 por millón de tokens de salida, lo que también es más bajo que Gemini 3.1 Pro, GPT-5.5, Claude Opus 4.7 y GPT-5.4.
El anuncio se produjo un día después de que Estados Unidos acusara a China de utilizar miles de cuentas proxy para robar propiedad intelectual de los laboratorios estadounidenses de inteligencia artificial a escala industrial. La propia DeepSeek ha sido acusada por Anthropic y OpenAI de “extraer” y copiar efectivamente sus modelos de IA.
Si compra a través de enlaces en nuestros artículos, es posible que ganemos una pequeña comisión. Esto no afecta la independencia editorial.
Source link
