DeepSeek se prepara para su modelo de nueva generación V4 centrado en programación

  • DeepSeek ultima el lanzamiento de su modelo V4, diseñado para destacar en tareas de programación y manejo de código extenso.
  • Los benchmarks internos apuntan a que V4 podría superar a GPT y Claude en pruebas de codificación y razonamiento.
  • La compañía china sortea las restricciones de hardware con nuevas técnicas de entrenamiento como mHC y un enfoque de código abierto.
  • Europa sigue de cerca el impacto potencial de V4 en empresas, desarrolladores y la competencia global en IA generativa.

Modelo de IA DeepSeek V4

La compañía china DeepSeek, la startup china de IA está a punto de dar un nuevo paso en la carrera de la inteligencia artificial generativa con su modelo V4, una evolución que llega apenas un año después de que su IA R1 sorprendiera al sector por su rendimiento y coste contenido. Este nuevo sistema promete centrarse de forma prioritaria en la programación y la generación de código, un ámbito donde cada mejora se traduce en ventajas directas para empresas y desarrolladores.

Desde Europa y España se observa con atención cómo DeepSeek, pese a las restricciones tecnológicas impuestas a China, ha logrado posicionarse como uno de los actores más disruptivos del mercado. Su próximo modelo de nueva generación, DeepSeek-V4, no solo apunta a competir con gigantes como OpenAI, Google o Anthropic, sino que podría reconfigurar el equilibrio de poder en herramientas de desarrollo si sus promesas se confirman en pruebas públicas y en entornos reales de trabajo.

De R1 a V4: la rápida escalada de DeepSeek en la IA global

Evolución de los modelos DeepSeek

Hace aproximadamente un año, DeepSeek irrumpió en el panorama internacional con su modelo R1, una IA de razonamiento que logró resultados comparables a ChatGPT de OpenAI utilizando solo una fracción del hardware y los recursos habituales. El impacto fue tal que, según diversos analistas, provocó pérdidas de cientos de miles de millones de dólares en valor bursátil en empresas vinculadas al sector, incluida NVIDIA, en apenas un día.

El modelo R1 fue especialmente sonado porque, en pruebas de matemáticas y razonamiento, igualó el rendimiento del modelo o1 de OpenAI con un coste de desarrollo estimado en apenas unos 6 millones de dólares, una cifra muy inferior a la de sus competidores occidentales. Ese movimiento situó a DeepSeek como el “outsider” que desafiaba el statu quo en plena carrera por la IA generativa.

Lejos de quedarse ahí, la compañía continuó su hoja de ruta con versiones posteriores como DeepSeek V3 y V3.2, donde se vio un salto importante en benchmarks especializados. En el test MATH-500, por ejemplo, su modelo V3 alcanzó alrededor de un 90,2% de acierto, superando el 78,3% atribuido a algunas variantes de Claude, la IA de Anthropic. Más tarde, la versión denominada V3.2 Speciale afinó todavía más esas capacidades.

Mientras tanto, el contexto geopolítico jugaba en contra de las empresas chinas. Estados Unidos lleva años limitando la venta de chips avanzados y maquinaria para fabricar semiconductores de IA a China, con el objetivo de frenar su progreso tecnológico. Sin embargo, el gigante asiático ha respondido impulsando el desarrollo de chips propios y nuevos modelos de IA, así como recurriendo a terceros países para acceder a ciertas gráficas recortadas de NVIDIA y apoyándose en proveedores internos como Huawei para sus aceleradores.

En este escenario de presión y restricciones, la evolución de DeepSeek se ha interpretado en muchos círculos como la prueba de que China no está dispuesta a quedarse atrás en la nueva ola tecnológica. El inminente lanzamiento del modelo V4 representa el siguiente capítulo de esa estrategia de resistencia y avance acelerado.

DeepSeek-V4: un modelo de nueva generación volcado en la programación

La gran novedad de esta próxima versión es su orientación: DeepSeek-V4 se concibe como un modelo híbrido, preparado tanto para tareas de razonamiento como para usos más generales, pero con un foco muy claro en la generación y comprensión de código. La compañía quiere situar este modelo como una de las herramientas de referencia para desarrolladores, equipos de ingeniería de software y empresas tecnológicas.

Según información filtrada por fuentes cercanas al proyecto y recogida por medios especializados como The Information, la empresa estaría preparando un lanzamiento alrededor de mediados de febrero, con especial simbolismo en torno al Año Nuevo Lunar, clave en el calendario chino. Aunque la fecha exacta no es oficial, se menciona el entorno del 17 de febrero como posible ventana de presentación.

  Soporte oficial de Windows 11 24H2 y cambios clave en Microsoft

En las pruebas internas que se han dado a conocer de forma no oficial, DeepSeek-V4 superaría tanto a la serie GPT de OpenAI como a Claude de Anthropic en diversos benchmarks, especialmente en aquellos centrados en retos de programación compleja y manipulación de prompts de código muy extensos. Se trataría de uno de los puntos fuertes del modelo, ya que los contextos largos son cada vez más necesarios para manejar repositorios enteros, grandes bases de código o proyectos colaborativos.

Conviene remarcar que, por el momento, no se han publicado benchmarks oficiales ni documentación técnica detallada de V4. DeepSeek tampoco ha confirmado públicamente estas filtraciones, por lo que todas las comparativas con competidores siguen siendo, de momento, afirmaciones sin verificación independiente. Aun así, el simple hecho de que los rumores apunten tan alto ha bastado para que el sector esté en alerta.

El cambio estratégico es claro: mientras que el modelo R1 ponía el acento en el razonamiento puro (matemáticas, lógica, pruebas formales), V4 busca una aplicación más inmediata en el entorno corporativo. La idea es convertirse en una solución que no solo razone bien, sino que genere código de alta precisión, entienda proyectos complejos y se integre en flujos de trabajo empresariales, donde cada fallo o acierto puede tener impacto directo en la cuenta de resultados. En muchos casos esa integración contempla incluso entornos de escritorio, como DeepSeek en Windows 11, pensados para equipos de desarrollo.

Manejo de código extenso y contextos largos: la gran apuesta técnica

Uno de los elementos que más llama la atención del nuevo modelo es su capacidad anunciada para trabajar con “comandos de codificación extremadamente largos”. En la práctica, esto se traduce en poder procesar y razonar sobre grandes bloques de código, documentación extensa, múltiples archivos o hilos de conversación prolongados entre equipos de desarrollo.

El llamado long context se ha convertido en un campo de batalla clave entre los grandes laboratorios de IA. La posibilidad de que una IA entienda un proyecto casi completo de una sola vez, en lugar de recibirlo troceado, puede marcar la diferencia en tareas como refactorización masiva, auditorías de seguridad, migraciones de frameworks o asistencia continua al programador dentro del mismo entorno de trabajo.

En el caso de DeepSeek-V4, se sabe que ha habido una mejora relevante en este apartado, aunque por ahora no se ha hecho pública una cifra concreta del límite de contexto que puede manejar. Si los rumores se confirman y logra situarse por encima de modelos punteros como Claude Opus 4.5, actualmente muy bien valorado en pruebas como SWE-bench Verified, estaríamos ante un competidor serio en el segmento de herramientas para desarrolladores.

Los analistas del sector apuntan a que este empuje en capacidades de contexto largo responde también a las necesidades del mercado empresarial europeo y occidental, donde muchas compañías buscan automatizar revisiones de código, generación de tests y documentación técnica sin depender por completo de un único proveedor estadounidense. La entrada de un actor chino con un producto competitivo en este nicho podría generar una mayor diversidad de opciones y, de paso, presionar a la baja los costes.

Desde la comunidad técnica ya hay un fuerte interés: foros como r/DeepSeek y r/LocalLLaMA en Reddit se han llenado de debates, comparativas hipotéticas y usuarios que aseguran estar guardando créditos de API a la espera de la salida de V4. En redes como X (antes Twitter), desarrolladores y entusiastas llevan semanas especulando con que este modelo podría consolidar la imagen de DeepSeek como alternativa seria a los gigantes de Silicon Valley.

  ChatGPT cumple 3 años: así ha cambiado nuestra relación con la inteligencia artificial

La técnica mHC: cómo DeepSeek intenta esquivar los límites de hardware

Una de las piezas más comentadas en torno a DeepSeek V4 es el método de entrenamiento que la compañía ha presentado recientemente bajo el nombre de Manifold-Constrained Hyper-Connections (mHC). Este enfoque, descrito en un artículo de investigación fechado el 1 de enero y firmado, entre otros, por el fundador Liang Wenfeng, intenta resolver un problema clásico en el escalado de grandes modelos de lenguaje: cómo aumentar la capacidad sin que el entrenamiento se vuelva inestable o directamente colapse.

En los modelos de IA tradicionales, buena parte de la información se ve obligada a pasar por una especie de “cuello de botella”, un camino relativamente estrecho que limita el flujo de datos y puede generar problemas cuando se incrementa el tamaño del modelo. La propuesta mHC, en cambio, plantea una estructura en la que ese flujo se reparte en múltiples rutas interconectadas, permitiendo que la información se intercambie sin provocar explosiones numéricas ni inestabilidades graves durante el entrenamiento.

Según analistas como Wei Sun, de Counterpoint Research, este método podría considerarse un avance relevante para sortear los cuellos de botella computacionales, algo especialmente útil para un laboratorio chino sometido a restricciones en la compra de chips de última generación. La idea es exprimir al máximo la capacidad del hardware disponible sin renunciar a dar saltos cualitativos en inteligencia y rendimiento.

Otra lectura interesante es la que aporta Lian Jye Su, analista jefe en Omdia, quien destaca que el hecho de que DeepSeek publique parte de sus métodos y resultados indica un grado creciente de confianza de la industria china de IA en sus propias capacidades. Frente a un contexto cada vez más cerrado en algunos modelos occidentales, el enfoque relativamente abierto de DeepSeek la ha convertido en referencia para muchos desarrolladores que valoran la transparencia y la posibilidad de auditar el funcionamiento interno de estos sistemas.

Esta combinación de innovaciones técnicas y apertura parcial ha permitido que la empresa gane tracción no solo en Asia, donde su adopción es ya notable, sino también en comunidades internacionales que ven en DeepSeek una forma de diversificar sus proveedores sin quedarse atados a una sola gran corporación estadounidense.

Controversias, críticas y retos para su expansión en Europa

El ascenso de DeepSeek no ha estado exento de polémicas. Por un lado, algunos gobiernos han expresado preocupaciones sobre privacidad y tratamiento de datos asociados a sus servicios, lo que ha derivado en restricciones o directamente en prohibiciones de su aplicación nativa en ciertos territorios. Estas dudas se suman al debate sobre censura y control de contenidos en modelos desarrollados dentro del ecosistema chino.

A nivel técnico, tampoco todo el mundo está convencido. En comunidades como Reddit se han leído críticas que apuntan a que algunos de sus modelos de razonamiento emplean demasiada capacidad computacional para tareas sencillas, o que los benchmarks con los que se comparan no reflejan del todo las condiciones del mundo real. Un artículo muy compartido en plataformas como Medium llegó a acusar a los modelos de DeepSeek de generar respuestas erróneas, código poco fiable y bibliotecas “alucinadas” en escenarios complejos.

Estas reservas son especialmente relevantes para Europa, donde la nueva regulación sobre inteligencia artificial y protección de datos obliga a las empresas a evaluar con lupa los riesgos éticos y de seguridad antes de adoptar masivamente una tecnología. Cualquier despliegue de DeepSeek V4 en el entorno europeo tendrá que adaptarse a normas como la AI Act y el RGPD, lo que puede suponer una barrera adicional respecto a mercados con un marco regulatorio más laxo.

  Nvidia refuerza su dominio en IA con un acuerdo de licencia no exclusiva con Groq

Aun así, el potencial atractivo es innegable: si V4 cumple con lo que prometen las filtraciones, muchas compañías europeas podrían plantearse incorporarlo como asistente de programación para acelerar ciclos de desarrollo, reducir errores y mejorar la documentación. En un contexto de fuerte competencia y presión para innovar, disponer de una alternativa competitiva a las soluciones estadounidenses podría resultar muy interesante.

El reto para DeepSeek será demostrar que su modelo no solo rinde bien en benchmarks controlados, sino que es capaz de integrarse de forma segura, fiable y respetuosa con la normativa europea en entornos productivos. La percepción de neutralidad, transparencia y respeto a la privacidad será casi tan importante como las métricas puramente técnicas.

Un calendario ajustado y muchas expectativas alrededor de V4

Los planes de la empresa reflejan un ritmo de trabajo acelerado. De acuerdo con informaciones previas, DeepSeek había previsto inicialmente lanzar un modelo R2 en mayo de 2025, pero el propio fundador, Liang Wenfeng, habría decidido posponerlo al no estar satisfecho con el nivel de rendimiento alcanzado. Esa decisión se interpretó como una muestra de exigencia interna y cautela, evitando sacar al mercado un producto que no cumpliera con sus propios estándares.

Ahora, con V4 apuntando a febrero como ventana de lanzamiento y la posibilidad de que R2 llegue más adelante en el año, la sensación es que la compañía se mueve entre la urgencia por consolidar su posición y la confianza en sus avances técnicos. Esta combinación de prisa y ambición es lo que está alimentando las expectativas y, al mismo tiempo, poniendo presión añadida sobre el nuevo modelo.

En comunidades profesionales y foros de desarrolladores europeos ya se especula con los posibles casos de uso de V4 en empresas de software, startups tecnológicas y consultoras. Si el modelo logra una buena relación entre rendimiento, coste y facilidad de integración, podría convertirse en una herramienta muy valorada para acelerar proyectos de digitalización, modernización de sistemas heredados o creación de nuevos productos basados en IA.

Los grandes laboratorios de Silicon Valley, por su parte, no pierden de vista estos movimientos. Cada avance de DeepSeek implica un aumento de la competencia en un mercado donde los márgenes y las valoraciones dependen en gran medida de mantener la percepción de liderazgo tecnológico. Un V4 sólido, bien recibido por la comunidad y con buena adopción en Asia y parte de Europa, podría obligar a otros actores a acelerar sus propios planes de actualización.

Con todo lo que se sabe hasta ahora, DeepSeek V4 se perfila como uno de los lanzamientos más observados del año en el ámbito de la IA aplicada a la programación. Llega precedido por un historial de modelos que han descolocado al sector, envuelto en debates sobre privacidad, regulaciones y geopolítica, y respaldado por técnicas de entrenamiento innovadoras pensadas para ir más allá de las limitaciones de hardware. Si sus capacidades para manejar código complejo, contextos largos y tareas de razonamiento se confirman en escenarios reales, tanto en Asia como en Europa, el panorama de herramientas de IA para desarrolladores podría experimentar un giro relevante y sumar un nuevo referente más allá de los nombres habituales de Silicon Valley.

DeepSeek, la startup china de IA
Artículo relacionado:
DeepSeek, la startup china de IA que sacude el tablero global