
La industria de la inteligencia artificial vive una de sus operaciones corporativas más llamativas de los últimos años. Nvidia ha alcanzado un acuerdo para hacerse con la tecnología y los activos clave de Groq, una de las startups de referencia en chips de inferencia de IA, por alrededor de 20.000 millones de dólares en efectivo. Se trata de la mayor operación de la historia de Nvidia y un movimiento que consolida todavía más su peso en el hardware para centros de datos y modelos de IA generativa.
El acuerdo, estructurado como una compra de activos acompañada de un amplio contrato de licencia no exclusiva, permite a Nvidia absorber buena parte de la propiedad intelectual y el talento de Groq sin integrar completamente a la empresa ni a su negocio de computación en la nube. El mensaje que deja en el mercado es claro: en la carrera por la IA, Nvidia prefiere anticiparse y asegurarse la tecnología más prometedora antes de que acabe en manos de un competidor directo.
Cómo es realmente la operación entre Nvidia y Groq
Aunque en los comunicados oficiales se habla de un acuerdo de licencia de tecnología de inferencia, en la práctica el movimiento funciona como una adquisición casi total de Groq, con la excepción de su negocio en la nube. Nvidia desembolsará unos 20.000 millones de dólares en efectivo para quedarse con la mayoría de activos tecnológicos de la startup, incluyendo diseños de chips, propiedad intelectual y un buen número de ingenieros clave.
La propia Groq ha explicado que el acuerdo se articula como una licencia no exclusiva de su tecnología de inferencia combinada con la venta de la mayor parte de sus activos de hardware. La diferencia formal frente a una compra clásica es que la compañía seguirá existiendo como entidad independiente, con nuevo equipo directivo y manteniendo ciertas líneas de negocio fuera del perímetro de la operación.
Según ha trascendido en medios como CNBC y otras cabeceras financieras, esta estructura permite a Nvidia minimizar el escrutinio de los reguladores de competencia y al mismo tiempo capturar prácticamente todo lo que le interesa: los chips, las patentes y el equipo humano que los ha desarrollado.
En cualquier caso, la cifra de 20.000 millones supone un salto de valoración histórico para Groq. La empresa fue valorada en unos 6.900 millones de dólares en su última ronda de financiación, cerrada apenas unos meses antes con una inyección de 750 millones liderada por Disruptive y con participación de inversores como BlackRock, Samsung, Cisco, Neuberger Berman o Altimeter. Para los primeros accionistas, la operación implica casi triplicar el valor de su inversión en tiempo récord.

Qué se queda Nvidia y qué conserva Groq: activos, talento y GroqCloud
Uno de los puntos más singulares del acuerdo es el reparto entre lo que pasa a manos de Nvidia y lo que permanece en Groq. De acuerdo con las informaciones conocidas, Nvidia se quedará con prácticamente todos los activos tecnológicos de la compañía: diseños de chips, propiedad intelectual, herramientas de software asociadas y gran parte del equipo de ingeniería.
El fundador de Groq, Jonathan Ross —conocido por haber participado en el desarrollo de las TPU de Google—, el presidente Sunny Madra y otros altos directivos se incorporarán a Nvidia para ayudar a escalar e integrar la tecnología de inferencia en el catálogo del fabricante de GPU. Desde el punto de vista de Nvidia, la operación es tanto una compra de tecnología como una adquisición de talento altamente especializado.
Groq, por su parte, conservará su negocio de computación en la nube, conocido como GroqCloud, que seguirá operando como servicio independiente para ofrecer potencia de cálculo de inferencia directamente a empresas y desarrolladores. Este área quedaría explícitamente fuera del acuerdo, lo que permite a Groq seguir funcionando como compañía autónoma, ahora dirigida por Simon Edwards, hasta ahora director financiero (CFO) y ahora nuevo consejero delegado.
La fórmula no es nueva en el sector: en Estados Unidos se han visto varias “pseudoadquisiciones” de este tipo, en las que los gigantes tecnológicos adquieren activos y equipos por importes multimillonarios sin hacerse formalmente con el control total de las startups. De este modo se reducen las posibilidades de que los reguladores bloqueen las operaciones por motivos de competencia, al tiempo que los compradores se quedan con lo esencial.
Quién es Groq y por qué su tecnología importa tanto
Groq nació en 2016 de la mano de un grupo de exingenieros de Google, entre ellos Jonathan Ross, uno de los padres de las TPU (Tensor Processing Units) del gigante de Mountain View. La compañía se ha especializado desde el principio en chips dedicados a la inferencia de modelos de IA, es decir, la fase en la que los modelos ya entrenados se ponen a trabajar respondiendo preguntas, generando texto o tomando decisiones en tiempo real.
A diferencia de las GPU tradicionales, los procesadores de Groq —conocidos como LPU (Language Processing Units)— están diseñados para ofrecer latencias muy bajas y un rendimiento muy estable en cargas de trabajo de modelos de lenguaje de gran tamaño (LLM). El enfoque de la compañía prioriza la ejecución determinista, la previsibilidad y la eficiencia energética, factores clave cuando se quiere desplegar IA generativa a gran escala para millones de usuarios.
La propuesta de Groq se ha hecho popular en parte por las demostraciones públicas de chatbots funcionando a velocidades de tokens por segundo muy superiores a las de infraestructuras más convencionales, con un consumo energético inferior. En un momento en el que los costes de ejecutar modelos de IA se han convertido en un quebradero de cabeza para muchas empresas, esta combinación de velocidad y eficiencia ha situando a Groq como uno de los actores más interesantes del ecosistema.
Además, la compañía asegura estar dando servicio ya a miles de empresas y desarrolladores de todo el mundo, incluyendo corporaciones incluidas en la lista Fortune 500, a través de centros de datos repartidos por Norteamérica, Europa y Oriente Medio. Esta presencia internacional y su foco en la inferencia explican por qué Groq se había convertido en una pieza codiciada dentro del tablero global de la IA.

Por qué Nvidia quiere dominar también la inferencia
Hasta ahora, Nvidia ha sido el referente casi indiscutible en chips de entrenamiento de modelos de inteligencia artificial gracias a sus GPU para centros de datos, como las series A100, H100 o sus sucesoras. Sin embargo, a medida que los modelos se han ido desplegando en aplicaciones reales, el foco del mercado se ha desplazado cada vez más hacia la inferencia, que es donde se consume el grueso de la potencia de cálculo en el día a día.
La compra de activos de Groq encaja en la estrategia de Nvidia de reforzar su ecosistema de hardware y software para cubrir de manera más completa todo el ciclo de vida de los modelos de IA: desde el entrenamiento inicial hasta la ejecución en tiempo real para millones de usuarios. Integrar la tecnología LPU de Groq junto con sus propias GPU permitiría a Nvidia ofrecer soluciones combinadas (GPU + LPU) optimizadas según el tipo de carga de trabajo.
Desde el punto de vista competitivo, el movimiento es también una maniobra claramente defensiva. Groq se había posicionado como uno de los pocos actores capaces de plantear una alternativa real a la hegemonía de Nvidia en centros de datos, especialmente en tareas de inferencia de IA generativa. Al incorporar su tecnología, Nvidia neutraliza a uno de los rivales más prometedores en un nicho donde también compiten empresas como Cerebras u otros diseñadores de aceleradores especializados.
En paralelo, la operación llega en un contexto en el que otros gigantes también han optado por acuerdos mixtos de inversión, licencias y fichajes de talento con startups de IA. Meta ha invertido miles de millones en compañías como Scale AI, Google ha licenciado tecnología y contratado ejecutivos de Character.AI, y Microsoft ha cerrado alianzas profundas con proyectos como Inflection AI. El acuerdo con Groq se suma a esta oleada de movimientos con los que los grandes grupos tratan de asegurarse piezas tecnológicas clave antes de que la competencia lo haga.
Implicaciones en Europa y para el mercado global de chips de IA
La operación no solo tiene lectura en clave estadounidense. El hecho de que Groq ofrezca ya servicios desde centros de datos en Europa y Oriente Medio y que Nvidia concentre una parte muy significativa del suministro de aceleradores de IA utilizados por los grandes proveedores cloud que operan en la UE, convierte esta compra de activos en un asunto que probablemente será analizado con atención desde Bruselas.
La Comisión Europea y otras autoridades de competencia han mostrado en los últimos años una creciente preocupación por la concentración de poder tecnológico en un puñado de compañías estadounidenses. La absorción de una tecnología vista como una de las pocas vías para diversificar la oferta de chips de inferencia puede reavivar el debate sobre la dependencia europea de proveedores externos en un área tan estratégica como la IA.
Para las empresas europeas que están desplegando soluciones de IA —desde bancos y telecos hasta startups de software—, el acuerdo tiene dos caras. Por un lado, podría traducirse en una oferta más integrada y madura de productos de Nvidia, lo que facilita la adopción de modelos generativos a gran escala. Por otro, refuerza todavía más la posición de Nvidia como proveedor casi imprescindible, lo que a medio plazo puede influir en precios, condiciones de suministro y capacidad de negociación de los clientes.
En este contexto, los planes de la Unión Europea para impulsar fabricación propia de semiconductores y aceleradores, así como sus programas de apoyo a proyectos de IA, se vuelven aún más relevantes. La consolidación de actores como Nvidia hace que resulte más complejo para iniciativas europeas ofrecer alternativas competitivas, aunque también puede servir como incentivo para que los Estados miembros aceleren sus propias estrategias industriales.
Riesgos regulatorios y debate sobre competencia
El tamaño de la operación y el papel central de Nvidia en el mercado de chips de IA harán que reguladores de Estados Unidos, Europa y otras jurisdicciones examinen el acuerdo con lupa, aunque formalmente se haya estructurado como una licencia de tecnología y compra de activos más que como una adquisición societaria clásica.
En el mercado ya se habla de este tipo de movimientos como “pseudoadquisiciones”, diseñadas precisamente para reducir las probabilidades de bloqueo por parte de las autoridades antimonopolio. Nvidia insiste en que no está comprando Groq como empresa, sino licenciando su propiedad intelectual y contratando a parte de su equipo. Sin embargo, para muchos analistas el efecto práctico es similar al de una compra completa en lo que respecta a la consolidación de poder tecnológico.
La operación puede reabrir el debate sobre si las normas de competencia actuales están preparadas para gestionar movimientos de este tipo en sectores donde el valor reside, sobre todo, en la propiedad intelectual y el talento. Inversores de referencia como BlackRock, Samsung o fondos respaldados por figuras políticas estadounidenses también aportan una dimensión geoestratégica que no pasará desapercibida.
Para rivales como AMD, Intel o los grandes proveedores cloud —AWS, Microsoft Azure, Google Cloud—, la compra de activos de Groq refuerza la posición de Nvidia como pieza central de la infraestructura de IA. Esto eleva la barrera de entrada para nuevos aspirantes y obliga a los competidores a redoblar sus propias apuestas en silicio especializado si no quieren depender aún más de la compañía liderada por Jensen Huang.
Un precedente en la estrategia de Nvidia y el futuro del mercado
La alianza con Groq no es un caso aislado en la trayectoria reciente de Nvidia. Meses atrás, la compañía ya realizó un movimiento muy parecido con Enfabrica, una startup de servidores con la que cerró un acuerdo de licencia y una fuerte inversión que terminó con buena parte de su equipo incorporado a las filas de Nvidia. En la práctica, se trata de un modelo recurrente de expansión que combina acuerdos de propiedad intelectual, inversión de capital y fichaje de personal clave.
Estas operaciones reflejan cómo están cambiando las grandes adquisiciones en el sector de los semiconductores y la IA. Cada vez se ven menos compras corporativas tradicionales y más pactos híbridos que buscan capturar valor —conocimiento, patentes, ingenieros— sin asumir los riesgos regulatorios y de integración que conlleva absorber por completo a una empresa.
A medio plazo, es razonable esperar que la tecnología de Groq se vaya filtrando en la hoja de ruta de productos de Nvidia, tanto en nuevos aceleradores de inferencia como en mejoras de software y herramientas para desarrolladores. No tiene por qué traducirse en productos etiquetados como “Groq inside”, pero sí en cambios en la forma en que Nvidia optimiza la ejecución de modelos de lenguaje y otras cargas de IA en sus plataformas.
Para el ecosistema de startups de hardware de IA, el mensaje es ambivalente: por un lado, se demuestra que existe un mercado de salidas multimillonarias para las empresas que consigan tecnologías diferenciadas; por otro, se confirma lo complicado que es mantenerse independiente a gran escala frente a un actor tan dominante como Nvidia. El resultado es un sector cada vez más concentrado, en el que las operaciones estratégicas pesan casi tanto como los avances puramente técnicos.
Con la adquisición de activos de Groq por unos 20.000 millones de dólares, Nvidia refuerza su apuesta por liderar no solo el entrenamiento, sino también la inferencia de modelos de IA en todo el mundo, incluidas Europa y otras regiones donde la demanda de cómputo se dispara. El acuerdo mezcla tecnología puntera, grandes cifras e ingeniería regulatoria, y deja un escenario en el que la compañía de Santa Clara sale aún más fortalecida mientras el resto del mercado se ve obligado a reaccionar.