Cómo instalar ROCm en Windows

  • HIP SDK lleva un subconjunto de ROCm a Windows con APIs y tooling HIP.
  • ROCm 7 acelera IA con FP4/FP6 y mejora la comunicación GPU-GPU (RCCL).
  • PyTorch nativo llega en ROCm 6.4.4 Preview para Windows y Linux.
  • Compatibilidad creciente con Radeon RX 9000/7000 y Ryzen AI 300.

Cómo instalar ROCm en Windows

Si trabajas con GPU y te estás planteando dar el salto a AMD, la gran pregunta es clara: cómo instalar ROCm en Windows sin morir en el intento. En los últimos meses, AMD ha dado pasos firmes para llevar su ecosistema de cómputo a este sistema operativo mediante el HIP SDK, acercando a desarrolladores y equipos de datos una experiencia más madura y práctica. Lo bueno: puedes compilar y preparar proyectos incluso sin una tarjeta AMD instalada. Lo imprescindible: una GPU compatible si quieres ejecutar aplicaciones HIP.

Antes de meternos en harina, conviene poner contexto. ROCm (Radeon Open Compute) nació en Linux para explotar al máximo las capacidades de cálculo de las GPUs AMD en IA, HPC y cargas paralelas. Hoy el panorama se acelera: el soporte en Windows crece con el HIP SDK, hay vista previa de PyTorch con aceleración nativa, y la plataforma avanza de forma notable con ROCm 7. A continuación te contamos qué ofrece, qué cambia y cómo instalarlo paso a paso en Windows, con notas prácticas y detalles de versión que te ahorrarán tiempo.

Qué es ROCm y por qué te interesa en Windows

ROCm es una plataforma abierta que busca integrar de forma eficiente CPU y GPU para resolver problemas reales de computación intensiva. Nació y maduró en Linux, pero en Windows se materializa a través del HIP SDK, que trae un subconjunto de la plataforma con APIs, herramientas y toolchains para crear aplicaciones portables y de alto rendimiento mediante HIP (Heterogeneous-Compute Interface for Portability).

Con el HIP SDK en Windows, tienes a mano piezas clave del runtime y el compilador, utilidades para el desarrollo y un instalador que se encarga de detectar tu sistema y ofrecerte los componentes aplicables. Así, es posible configurar el entorno de construcción aunque no haya GPU AMD, y más tarde, cuando dispongas de hardware compatible, lanzar y depurar tus aplicaciones HIP sin cambiar de sistema operativo.

El objetivo no es menor: reducir el bloqueo tecnológico frente a ecosistemas propietarios y dar a equipos de IA e ingeniería una alternativa sólida. Con ROCm 7, además, se acelera el rendimiento en cargas de aprendizaje profundo e inferencia, y mejora la compatibilidad con frameworks populares como PyTorch y TensorFlow, lo que facilita el día a día del desarrollador en entornos mixtos.

Para quienes vienen del mundo CUDA, el interés es doble. Por un lado, Windows ya no queda fuera del juego; por otro, se estrecha la distancia en herramientas y soporte, y aparece la opción de portar proyectos con HIP, siempre con algunas consideraciones. Es un ecosistema que, si bien aún no cubre absolutamente todo, progresa con ritmo y ambición.

Novedades de ROCm 7 que marcan la diferencia

La versión 7 viene con mejoras palpables para IA y HPC: hasta 3,5× en inferencia y 3× en entrenamiento en escenarios medidos por AMD, impulsadas por nuevos formatos de datos y mejores pilas de comunicación. Si necesitas exprimir hardware en entrenamiento distribuido o trabajas con modelos grandes, la evolución técnica se nota.

Uno de los titulares es el soporte de formatos de precisión reducida FP4 y FP6. Estos permiten empaquetar más información en menos memoria y acelerar la ejecución sin degradar significativamente la calidad perceptible en ciertos modelos de lenguaje y generativos. Es la línea que está siguiendo toda la industria: precisión adaptativa para ganar velocidad y aprovechar cada vatio.

También hay avances en comunicación GPU-GPU gracias a RCCL (el equivalente a NCCL en el ecosistema AMD). Esto mejora el rendimiento al escalar a múltiples GPUs, reduciendo cuellos de botella y latencias, algo crítico cuando tu entrenamiento o inferencia ya no cabe en una sola tarjeta.

Por último, se percibe un salto en compatibilidad: además de Linux, el camino en Windows progresa, y el soporte de hardware se extiende desde Instinct MI300X en el ámbito servidor hasta Radeon y Ryzen AI en estaciones de trabajo. Esto, junto con herramientas más pulidas (instalador, integración con Kubernetes mediante GPU Operator, y soporte en frameworks), redondea un ecosistema más listo para producción.

HIP SDK en Windows: lo que necesitas saber

Cómo instalar ROCm en Windows

El HIP SDK trae a Windows un subconjunto de la plataforma ROCm, con APIs y tooling para trabajar con aceleradores. Es compatible con Windows 10, Windows 11 y Windows Server 2022. Puedes instalarlo sin GPU AMD si tu objetivo es preparar toolchains y pipelines de build; para ejecutar binarios HIP, sí necesitarás una GPU o APU compatible.

  Audacity: pasos para normalizar audio y eliminar ruido de fondo

En cuanto a versiones, hay dos referencias importantes. Primero, desde ROCm 6.1.2 el HIP SDK para Windows actualizó componentes de tiempo de ejecución como amdhip64 y amd_comgr, por lo que conviene comprobar que enlazas con las DLL actualizadas. Segundo, con ROCm 6.4.2, la versión más reciente de HIP Ray Tracing (HIP RT) se distribuye como hiprt0200564.dll (versión 2.5.41f6849), un detalle relevante si estás explorando funcionalidades de trazado de rayos en tu pipeline.

El instalador del HIP SDK incluye, además, un paquete del controlador profesional de AMD: Radeon Software PRO 23.30. Durante la configuración podrás escoger qué instalar, o dejar los valores por defecto si quieres cubrirte con todo y ahorrar tiempo en ajustes manuales. La detección automática de componentes aplicables simplifica la experiencia.

Requisitos y GPUs compatibles en Windows

Antes de instalar, asegúrate de cumplir los requisitos de sistema. Windows 10/11 y Windows Server 2022 son compatibles, y es recomendable tener las actualizaciones al día. Aunque puedas montar toolchains sin hardware AMD, recuerda que para probar y ejecutar aplicaciones HIP necesitarás una GPU o APU soportada, idealmente con drivers recientes.

El soporte de hardware en vista previa y estable se está ampliando. AMD ha anunciado que ROCm 6.4.4 Preview habilita soporte nativo de PyTorch tanto en Windows como en Linux para varias familias: Radeon RX 9000 (RDNA 4), Radeon RX 7000 (RDNA 3) y las nuevas APU Ryzen AI 300 (incluidas las variantes Max/Max+). Esto abre la puerta a ejecutar modelos de IA de manera directa en sistemas de escritorio y portátiles.

Modelos destacados mencionados por AMD en esta ola de soporte incluyen, entre otros: Radeon RX 9070 XT, RX 9070, RX 9070 GRE, RX 9060 XT en la gama RX 9000; Radeon RX 7900 XTX, RX 7900 XT y RX 7900 GRE en la serie RX 7000; y en la línea profesional, Radeon PRO W7900 (incluida la variante Dual Slot). En APUs, aparecen Ryzen AI 300 como Ryzen AI Max+ 395, Ryzen AI Max 390, Ryzen AI Max 385, Ryzen AI 9 HX 375, Ryzen AI 9 HX 370 y Ryzen AI 9 365. Verifica siempre la lista oficial de GPUs y APUs soportados para confirmar compatibilidad concreta.

Instalación paso a paso del HIP SDK

El proceso es sencillo y está pensado para que no te pierdas. Aun así, conviene ahorrar sorpresas con algunos trucos y notas. A grandes rasgos, descargas el instalador, lo ejecutas con permisos de administrador, eliges los componentes, y completas el asistente. Vamos por partes.

1) Descarga. Dirígete a la página oficial del HIP SDK para Windows y elige el instalador correspondiente a la versión de ROCm que quieras usar. Se mostrará una página de licencia que debes aceptar antes de iniciar la descarga. Guarda el archivo en una ruta accesible, por ejemplo en tu carpeta de Descargas.

2) Lanzamiento. Haz doble clic en el ejecutable del HIP SDK. El instalador requiere privilegios de Administrador, así que Windows mostrará el UAC; pulsa «Sí» para continuar. Durante unos instantes, el instalador extraerá paquetes temporales en C:\AMD. Verás una ventana con el estado de «Initializing install». Al terminar, esa carpeta se elimina automáticamente, por lo que no deja rastro tras completarse la instalación.

3) Detección y opciones. El instalador analizará tu sistema para ofrecerte los componentes aplicables. Aparecerá una ventana con casillas para personalizar la instalación. De forma predeterminada, todo viene seleccionado, lo cual es útil si quieres disponer del conjunto completo (SDK, runtime, herramientas, etc.). Si lo prefieres, desmarca lo que no necesites para reducir el footprint.

4) Controlador de pantalla. El paquete incluye una instalación del AMD Radeon Software PRO 23.30. Puedes optar por instalar este controlador profesional si buscas estabilidad en entornos de producción. Si ya usas otra versión compatible y certificada, decide si mantenerla o actualizar según tus requisitos del proyecto.

5) Instalación. Acepta y espera a que el proceso finalice. El tiempo dependerá de los componentes seleccionados y de tu equipo. Si el instalador detecta que es necesario, al finalizar te propondrá reiniciar. Pulsa «Finish» para completar o «Restart» si quieres aplicar los cambios inmediatamente.

Opciones por línea de comandos y comportamiento del instalador

El instalador del HIP SDK es una aplicación gráfica con punto de entrada «WinMain». Esto significa que, aunque lo llames desde la consola, su ciclo de vida está asociado a una ventana. En equipos headless o sesiones remotas, la ventana puede no ser visible, pero el proceso sigue atado a la interfaz, algo a considerar si automatizas instalaciones en servidores.

  Streaming sin lag en Windows 11: cómo aprovechar tu GPU

Existen opciones de CLI para ajustar la instalación y seleccionar componentes. AMD documenta estos parámetros en su repositorio de instalación para Windows. Entre los casos de uso típicos está la instalación de todos los componentes de una sola vez o la desatendida con configuraciones predefinidas. Si vas a integrarlo en pipelines CI/CD, prueba primero en una máquina de laboratorio para confirmar la sintaxis y el comportamiento en tu entorno.

Desinstalación limpia

Si necesitas revertir cambios, puedes desinstalar los componentes del HIP SDK desde el panel de Control o, en Windows 11, desde Ajustes > Aplicaciones > Aplicaciones instaladas. Busca cada entrada, pulsa en el menú de tres puntos de la derecha y elige «Desinstalar». Ten en cuenta que el complemento de Visual Studio puede requerir un procedimiento independiente, así que verifica su estado si notas restos del entorno en el IDE.

PyTorch nativo: ROCm 6.4.4 Preview en Windows y paridad con Linux

AMD ha anunciado una vista previa clave: ROCm 6.4.4 Preview que habilita el soporte nativo de PyTorch en Windows y Linux para GPUs Radeon RX 9000, RX 7000 y APU Ryzen AI 300, incluyendo variantes Max/Max+. Esto permite que desarrolladores y entusiastas ejecuten modelos de IA sobre hardware AMD en Windows sin recurrir a atajos o configuraciones exóticas.

Esta fase inicial sienta las bases para ir ampliando rendimiento, cobertura funcional y estabilidad en futuras versiones. Junto a ello, AMD pone a disposición una versión de PyTorch 25.20.01.14 Preview para su descarga en Windows. Para quienes alternan entre Linux y Windows, la compañía subraya que Linux recibirá el mismo nivel de soporte dentro de ROCm 6.4.4, apostando por consistencia entre plataformas.

¿Puedo convertir CUDA a ROCm sin tocar código?

Cómo instalar ROCm en Windows

La pregunta aparece una y otra vez: ¿existe una herramienta automática que convierta proyectos CUDA a ROCm sin intervención humana? La realidad es que, a día de hoy, no hay un botón mágico universal que asegure una migración perfecta sin ajustes manuales. En el mundo AMD, el camino típico pasa por HIP, con utilidades de «hipificación» que ayudan a traducir llamadas CUDA a su equivalente en HIP, acelerando gran parte del trabajo pero no evitando revisiones posteriores.

El nivel de automatización depende del código y de las bibliotecas empleadas. Proyectos que se ciñen a CUDA Runtime y a APIs comunes tienden a migrar mejor que aquellos que dependen de extensiones o componentes muy específicos. Como referencia, el ecosistema de Intel tiene su propia herramienta para transicionar hacia SYCL, lo cual recuerda que ninguna ruta es 100% automática en todos los casos. Lo sensato es evaluar el esfuerzo con un prototipo y medir el gap entre lo traducido y lo que exige tu base de código en producción.

Comparativa con CUDA y dónde encaja ROCm

Si vienes de NVIDIA, sabes que el rendimiento está ahí, pero también cierta dependencia del proveedor y de sus licencias. La gran baza de ROCm es su enfoque abierto, la ausencia de costes de licencia y la mejora progresiva en rendimiento y compatibilidad. Para centros de investigación, universidades y pymes, esto puede traducirse en clústeres más asequibles y un ecosistema menos restrictivo.

¿Está todo cubierto en ROCm? No siempre. Si tu stack depende de herramientas cerradas o bibliotecas exclusivas de CUDA, es probable que encuentres límites. Pero con ROCm 7, el salto es tangible: nuevos tipos de datos (FP4/FP6), mejor comunicación GPU-GPU con RCCL, soporte creciente de Windows y compatibilidad con frameworks principales. Cada vez resulta más viable montar entornos de IA y HPC sobre AMD sin sensación de estar en beta perpetua.

Notas de versión y binarios clave del HIP SDK

Además de los grandes titulares, importa bajar al detalle de binarios. A partir de ROCm 6.1.2, el runtime de HIP SDK para Windows actualizó amdhip64 y amd_comgr. Si mantienes artefactos o enlazas manualmente DLLs, asegúrate de referenciar las versiones nuevas para aprovechar las capacidades recientes y evitar incompatibilidades sutiles.

Si trabajas con ray tracing sobre HIP, la referencia útil es que en ROCm 6.4.2 la versión más reciente de HIP RT es 2.5.41f6849 y el binario se distribuye como hiprt0200564.dll. Estos detalles de nomenclatura ayudan cuando cierras pipelines de build o configuras deploys reproducibles.

  Configuración de Core Isolation y Memory Integrity en Windows

Buenas prácticas de instalación y verificación

Para evitar sorpresas, conviene preparar el terreno: actualiza Windows, desinstala drivers antiguos en conflicto y, si vienes de un entorno previo, limpia el PATH de rutas obsoletas. Tras instalar el HIP SDK, reinicia si te lo pide el asistente y prueba un «hello world» con HIP para verificar toolchain y runtime.

Una ruta habitual es crear un proyecto HIP mínimo y compilarlo con las herramientas del SDK. Comprueba que las DLL del runtime estén accesibles y que el driver instalado sea el esperado. Si todavía no tienes GPU AMD, céntrate en validar la parte de compilación y empaquetado. Cuando dispongas de hardware compatible, ejecuta y verifica con utilidades equivalentes a «rocminfo» o herramientas del SDK que reporten la detección de la GPU.

Implementación en Linux: referencia rápida

Aunque esta guía se centra en Windows, muchos equipos trabajan en entornos híbridos. En Linux, la instalación pasa por añadir repositorios de AMD y luego instalar los paquetes de desarrollo. Con Ubuntu como base, el flujo clásico consiste en registrar la clave GPG, añadir la fuente de software y actualizar e instalar.

Ejemplo de comandos en Ubuntu 20.04/22.04 LTS (revísalos siempre en la documentación oficial por si cambian): añade los repos y luego instala.

sudo apt update && sudo apt install wget gnupg2
wget https://repo.radeon.com/rocm/rocm.gpg.key
sudo gpg --dearmor -o /etc/apt/keyrings/rocm.gpg < rocm.gpg.key
echo 'deb [signed-by=/etc/apt/keyrings/rocm.gpg] https://repo.radeon.com/rocm/apt/debian/ ubuntu main' | sudo tee /etc/apt/sources.list.d/rocm.list
sudo apt update
sudo apt install rocm-dev

Tras la instalación, verifica con utilidades como rocminfo o el stack de monitorización de ROCm que tu GPU aparece correctamente. Esto te dará una referencia útil si alternas entre desarrollo en Linux y pruebas en Windows.

Aplicaciones reales: IA generativa, LLMs y productividad

Con ROCm 6.4.4 Preview y PyTorch nativo en Windows, se abren puertas a escenarios reales: ejecución de modelos generativos, ajuste fino de LLMs, pipelines de inferencia para aplicaciones creativas y analíticas, o prototipos en estaciones de trabajo. En paralelo, en el frente empresarial, ROCm 7 ya está disponible para servidores con hardware Instinct y EPYC, apuntando a cargas de gran escala.

Para quienes montan infraestructuras híbridas, el soporte creciente en Kubernetes vía GPU Operator facilita despliegues reproducibles. Un nivel de soporte homogéneo entre Windows y Linux evita saltos bruscos entre entornos locales y de producción, reduciendo los costes de integración y el tiempo de puesta en marcha.

Consejos para portar proyectos y evitar bloqueos

Si estás valorando portar código desde CUDA, empieza por un módulo representativo y mide el esfuerzo con herramientas de hipificación. Identifica dependencias de bibliotecas que puedan no tener equivalencia directa y, si es el caso, plantea una capa de abstracción para desenchufar el backend de aceleración. Lo que funcione en esa muestra te dará una idea honesta del esfuerzo total.

En proyectos con múltiples GPUs, presta atención a la comunicación entre dispositivos y al framework de orquestación. RCCL ha avanzado, pero conviene validar tus patrones de comunicación en el hardware objetivo. Con PyTorch, comprueba versiones recomendadas y matrices de compatibilidad, especialmente en esta fase con versiones Preview en Windows.

Preguntas frecuentes rápidas

  • ¿Puedo instalar el HIP SDK sin GPU AMD? Sí, para compilar y preparar binarios. Para ejecutar aplicaciones HIP necesitarás una GPU/APU compatible.
  • ¿El instalador es silencioso por CLI? Existen opciones de línea de comandos, pero recuerda que es una app gráfica con «WinMain» y ventana asociada.
  • ¿Qué driver instala el paquete? Incluye AMD Radeon Software PRO 23.30, aunque puedes usar controladores compatibles ya presentes.
  • ¿Qué cambios de runtime debo vigilar? amdhip64 y amd_comgr actualizados desde ROCm 6.1.2; HIP RT actual en ROCm 6.4.2: hiprt0200564.dll.

Queda claro que el ecosistema de AMD ha dado un paso adelante. ROCm en Windows vía HIP SDK ya es una realidad utilizable, la vista previa de PyTorch acelera la adopción, y las mejoras de ROCm 7 se notan en rendimiento y herramientas. Si necesitas independencia tecnológica, costes contenidos y una ruta creíble más allá de CUDA, este es un buen momento para arrancar pruebas serias, migrar módulos críticos y construir tu propio criterio con datos.