Cómo instalar CUDA en Windows paso a paso

  • Compatibilidad y requisitos: Windows y Visual Studio soportados, GPU CUDA y drivers adecuados.
  • Instalación flexible: instalador clásico, silenciosa, Conda y pip, con verificación mediante samples.
  • Integración y rendimiento: Visual Studio, modos de driver (WDDM/TCC) y uso en WSL.
  • Soporte y mantenimiento: actualización de drivers, control de versiones y resolución de problemas comunes.

Instalar CUDA en Windows

Si quieres sacar todo el jugo a tu GPU en Windows, instalar CUDA es un paso clave para acelerar cálculos y flujos de trabajo de IA y cómputo paralelo; en esta guía encontrarás un recorrido completo y actualizado por requisitos, instalación, verificación y solución de problemas, con notas específicas para entornos como Visual Studio, Conda, pip y WSL. El objetivo es que puedas empezar sin tropiezos y con las mejores prácticas desde el minuto uno.

Aunque la instalación es directa, hay matices importantes: versiones de Windows y Visual Studio compatibles, el modelo de controlador en el que opera tu GPU, la verificación con ejemplos oficiales y el hecho de que, a partir de CUDA 13, el driver de NVIDIA ya no viene dentro del instalador del Toolkit. Te explicamos cada detalle paso a paso, incluyendo opciones alternativas como Conda, pip y WSL, y un caso práctico real de error típico en portátiles con GPU híbrida.

¿Qué es CUDA y por qué la debes instalar?

CUDA es la plataforma y el modelo de programación de NVIDIA para computación paralela, pensada para acelerar tareas intensivas aprovechando la GPU. Permite escribir código en C/C++ con extensiones mínimas para centrarte en paralelizar tus algoritmos sin perderte en la implementación.

El modelo soporta cómputo heterogéneo: las partes seriales corren en CPU y las porciones paralelas se envían a GPU, con espacios de memoria separados y ejecución simultánea. Esto facilita adoptar CUDA de forma incremental en aplicaciones existentes sin refactorizaciones radicales.

Las GPUs compatibles con CUDA incorporan cientos de núcleos capaces de manejar miles de hilos, compartiendo recursos como registros y memoria compartida en chip. Esa memoria compartida reduce viajes al bus de memoria del sistema, lo que resulta en grandes mejoras de rendimiento cuando el acceso a datos está bien orquestado.

Requisitos de sistema en Windows para instalar CUDA

Cómo instalar ROCm en Windows
Artículo relacionado:
Cómo instalar ROCm en Windows

Para usar CUDA en Windows necesitas un sistema operativo compatible y una GPU apta para CUDA. Verifica siempre la compatibilidad antes de instalar para evitar problemas posteriores.

Sistemas Windows compatibles (ejemplos relevantes): Windows 11 24H2, 23H2 y 22H2-SV2; Windows 10 22H2; Windows Server 2022 y 2025. Estas versiones cubren la base de instalaciones domésticas y de servidor más comunes hoy en día.

Compatibilidad de compilador/IDE: Visual Studio 2022 (MSVC 193x) y Visual Studio 2019 (MSVC 192x) con dialectos C++11/14/17/20 según versión. VS 2015 está deprecado desde CUDA 11.1 y VS 2017 desde 12.5 (eliminado en 13.0), así que ajusta tus proyectos a versiones actuales.

Importante sobre 32 bits: La compilación 32-bit se eliminó a partir de CUDA 12.0 en el Toolkit. Los binarios de aplicaciones x86 de 32 bits se pueden ejecutar en GPUs GeForce hasta Ada; Hopper ya no soporta 32 bits y Ada será la última arquitectura con soporte de driver para aplicaciones 32 bits.

Requisitos de hardware para ciertos flujos (por ejemplo, Model Builder con clasificación de imágenes): al menos una GPU compatible con CUDA y 6 GB de memoria dedicada. En escenarios de deep learning la GPU marca la diferencia en tiempo de entrenamiento, aunque existe ejecución en CPU con tiempos muy superiores.

Preparativos previos para instalar CUDA y descargas

Confirma que tienes una GPU compatible con CUDA. En el Administrador de dispositivos de Windows, en “Adaptadores de pantalla”, verás el modelo; si aparece en la lista oficial de NVIDIA, es compatible. También puedes comprobar tu GPU desde Configuración o el Administrador de tareas siguiendo rutas sencillas del sistema.

Descarga el NVIDIA CUDA Toolkit desde el portal oficial. Hay dos formatos: Network Installer (descarga mínima que baja paquetes seleccionados durante la instalación) y Full Installer (incluye todos los componentes, ideal para equipos sin Internet o despliegues empresariales). Verifica la descarga comparando el checksum MD5 para asegurarte de que el instalador no está corrupto.

A partir de CUDA 13, el driver de NVIDIA no se incluye en el Toolkit. Deberás instalar o actualizar el controlador por separado desde la página de drivers de NVIDIA o vía GeForce Experience. Sin un driver adecuado el hardware no se comunicará correctamente con el Toolkit.

  Cómo hacer zoom en diapositivas de PowerPoint

Si trabajas con escenarios concretos como clasificación de imágenes con Model Builder, hay requisitos de versiones específicas: CUDA 10.1 y cuDNN 7.6.4 para CUDA 10.1. No puedes tener varias versiones de cuDNN instaladas a la vez; tras descomprimir el ZIP de cuDNN 7.6.4, copia cudnn64_7.dll a la carpeta bin de CUDA v10.1. Este caso es particular de esa herramienta y versión, no de una instalación moderna genérica de CUDA.

como instalar CUDA en Windows

Instalar CUDA Toolkit en Windows

Instalación gráfica: ejecuta el instalador y sigue las indicaciones en pantalla. Es lo más directo y recomendado para la mayoría de usuarios.

Instalación silenciosa: puedes ejecutar el instalador con el parámetro -s y añadir parámetros para instalar subpaquetes concretos. Usa -n si no deseas reiniciar automáticamente tras la instalación o desinstalación. Esta modalidad es útil en automatizaciones y despliegues corporativos.

Extracción manual: si necesitas inspeccionar o extraer los ficheros (por ejemplo, para despliegue empresarial), descomprime el paquete completo con 7-Zip o WinZip (usa LZMA). Los archivos del Toolkit quedarán bajo CUDAToolkit y los de la integración con Visual Studio en su propia carpeta. Ignora los ficheros .dll y .nvi de esas carpetas extraídas, no forman parte de los instalables.

Desinstalación: todos los subpaquetes pueden eliminarse desde Panel de control > Programas y características. Mantén tu sistema limpio si cambias de versión para evitar conflictos de rutas o props antiguas.

Componentes habituales del Toolkit por subpaquete (ejemplos más destacados): cublas_13.0 y cublas_dev_13.0, crt_13.0, ctadvisor_13.0, cuda_profiler_api_13.0, cudart_13.0, cufft_13.0 y cufft_dev_13.0, cuobjdump_13.0, cupti_13.0, curand_13.0 y curand_dev_13.0, cusolver_13.0 y cusolver_dev_13.0, cusparse_13.0 y cusparse_dev_13.0, cuxxfilt_13.0, documentation_13.0, nsight_compute_13.0, nsight_systems_13.0, nsight_vse_13.0, npp_13.0 y npp_dev_13.0, nvcc_13.0, nvdisasm_13.0, nvfatbin_13.0, nvjitlink_13.0, nvjpeg_13.0 y nvjpeg_dev_13.0, nvml_dev_13.0, nvprune_13.0, nvrtc_13.0 y nvrtc_dev_13.0, nvtx_13.0, nvvm_13.0, nvptxcompiler_13.0, occupancy_calculator_13.0, opencl_13.0, sanitizer_13.0, thrust_13.0 y visual_studio_integration_13.0. El instalador permite seleccionar exactamente qué paquetes quieres.

Instalar CUDA con Conda y con pip (Python)

Conda: NVIDIA publica paquetes del Toolkit en Anaconda (anaconda.org/nvidia). Con un único comando puedes instalar todos los componentes básicos del Toolkit; también puedes desinstalar con otro comando, e instalar versiones anteriores indicando la etiqueta de la release (por ejemplo, 11.3.1). Es una vía cómoda para aislar entornos y reproducir configuraciones.

pip: NVIDIA distribuye ruedas (Wheels) para instalar CUDA sobre pip, pensadas para uso en tiempo de ejecución con Python (no incluyen herramientas de desarrollo). Primero instala nvidia-pyindex para que pip consulte el repositorio PyPI de NVIDIA NGC; si usas requirements.txt, puedes añadir la línea correspondiente para automatizarlo. Con este método deberás configurar tu entorno del host aparte si piensas instalar CUDA fuera del entorno de pip.

Metapaquetes pip habituales para Windows (instalan la última versión del componente dentro de la rama indicada): nvidia-cublas-cu12, nvidia-cuda-cccl-cu12, nvidia-cuda-cupti-cu12, nvidia-cuda-nvcc-cu12, nvidia-cuda-nvrtc-cu12, nvidia-cuda-opencl-cu12, nvidia-cuda-runtime-cu12, nvidia-cuda-sanitizer-api-cu12, nvidia-cufft-cu12, nvidia-curand-cu12, nvidia-cusolver-cu12, nvidia-cusparse-cu12, nvidia-npp-cu12, nvidia-nvfatbin-cu12, nvidia-nvjitlink-cu12, nvidia-nvjpeg-cu12, nvidia-nvml-dev-cu12 y nvidia-nvtx-cu12. También existen variantes cu129 como nvidia-cublas-cu129, nvidia-cuda-nvrtc-cu129, etc., que apuntan a releases etiquetadas en esa rama.

Modelo de controlador: WDDM y TCC

En Windows 10 y posteriores hay dos modelos de driver: WDDM (para dispositivos de display) y TCC (Tesla Compute Cluster, para GPUs de cómputo sin display como Tesla o GeForce GTX Titan). Puedes consultar y cambiar el modo con la herramienta nvidia-smi, incluida en la instalación del driver.

Verificar la instalación

Comprueba la versión del Toolkit con nvcc -V en una ventana de Símbolo del sistema. Esto confirma que el compilador CUDA está accesible en PATH y que la instalación se registró correctamente.

Clona los CUDA Samples (https://github.com/nvidia/cuda-samples), compílalos y ejecútalos siguiendo las instrucciones del repositorio. Es muy recomendable compilar y ejecutar el ejemplo deviceQuery para verificar que se detecta el dispositivo y que pasa la prueba. Si todo está correcto, el programa mostrará tu GPU y un estado “Test PASSED”.

Ejecuta también bandwidthTest (ubicado junto a deviceQuery) para confirmar el rendimiento y el canal de comunicación con la GPU. El nombre del dispositivo y los números de ancho de banda variarán, pero lo importante es que encuentre la GPU y que todas las pruebas pasen. Si fallan, revisa la instalación del driver y del dispositivo con el Administrador de dispositivos.

  Todo sobre Google App for Windows

Integración con Visual Studio y proyectos

Los proyectos de ejemplo traen soluciones para Visual Studio 2019 y 2022 con configuraciones Release y Debug. Si elegiste la ruta por defecto, el binario resultante suele quedar en CUDA Samples\v13.0\bin\win64\Release (ajustado a tu versión). Compila y lanza los ejecutables desde VS o desde línea de comandos.

El instalador coloca los ficheros de Build Customizations (.props) en las rutas de VS: por ejemplo, para VS 2019 en C:\Program Files (x86)\Microsoft Visual Studio\2019\Professional\MSBuild\Microsoft\VC\v160\BuildCustomizations y para VS 2022 en la ruta equivalente v170. Esto habilita plantillas y reglas de compilación CUDA en tu IDE.

Para proyectos nuevos: Archivo > Nuevo > Proyecto… selecciona NVIDIA > CUDA y elige la plantilla de tu Toolkit (por ejemplo, “CUDA 13.0 Runtime”). Es un proyecto C++ (.vcxproj) preconfigurado con las personalizaciones de NVIDIA. Puedes especificar una ruta de Toolkit personalizada en CUDA C/C++ > Common, asegurándote de que coincide con la versión de las customizations.

qué es Quantum Experience
Artículo relacionado:
Quantum Experience: qué es y para qué sirve este software cuántico

Para proyectos existentes: añade la build customization desde “Build Dependencies > Build Customizations…”, elige la versión de CUDA que vas a usar o apunta a $(CUDA_PATH) para tomar siempre la más reciente instalada. Usar $(CUDA_PATH) es cómodo, pero elegir la versión explícita te asegura ver nuevas opciones de configuración cuando cambias de Toolkit.

Valida que $(CUDA_PATH) apunta a la carpeta correcta después de instalar o desinstalar Toolkits. Abre la ventana de variables de entorno desde el menú de Inicio, ficha Avanzado. Cualquier discrepancia aquí puede romper la compilación al no encontrar cabeceras o props correctas.

Los archivos con código CUDA deben marcarse como “CUDA C/C++”. Al añadir un nuevo archivo, usa “NVIDIA CUDA 13.0\Code CUDA C/C++ File” para que adopte las propiedades adecuadas. Así te aseguras de que NVCC y las reglas de enlace se aplican de forma automática.

CUDA en WSL (Subsistema de Windows para Linux)

Windows 11 y las últimas actualizaciones de Windows 10 admiten ejecutar frameworks de ML como PyTorch y TensorFlow con aceleración NVIDIA CUDA dentro de WSL, incluyendo Docker y NVIDIA Container Toolkit como si fuera Linux nativo. Es una gran alternativa si prefieres el ecosistema Linux sin salir de Windows.

Paso previo: instala Windows 11 o Windows 10 versión 21H2 (o posteriores) para acceder a estas capacidades. Cuanto más reciente, mejor soporte de kernel y drivers.

Instala el driver de GPU habilitado para CUDA en WSL (consulta la página de drivers de NVIDIA para elegir el adecuado). Después, habilita WSL e instala una distro basada en glibc como Ubuntu o Debian. Asegúrate de tener un kernel 5.10.43.3 o superior; puedes comprobarlo desde PowerShell con: wsl cat /proc/version. Sin ese kernel no tendrás el soporte necesario de la pila CUDA en WSL.

Una vez listo, sigue la Guía de usuario de NVIDIA CUDA en WSL y usa NVIDIA Docker o instala PyTorch/TensorFlow dentro de WSL para tus flujos Linux habituales. Si necesitas ayuda adicional, la comunidad de NVIDIA dispone de foros específicos para CUDA en WSL.

Solución de problemas frecuentes al instalar CUDA

¿No tienes GPU local? Los escenarios de aprendizaje profundo corren mucho más rápido con GPU. Algunos, como clasificación de imágenes, admiten entrenamiento en máquinas virtuales de GPU en Azure. Si no hay GPU local ni en la nube, puedes entrenar en CPU, pero los tiempos se disparan.

¿Cómo ver qué GPU tienes? Desde Configuración: clic derecho en Inicio > Configuración > Sistema > Pantalla > Configuración relacionada > Pantalla avanzada, y allí verás marca y modelo en “Mostrar información”. Desde el Administrador de tareas: Rendimiento > GPU también muestra el modelo y métricas.

¿No aparece tu GPU en Configuración ni en el Administrador de tareas? Abre el Administrador de dispositivos, mira en Adaptadores de pantalla e instala el controlador adecuado si no está reconocido. Sin el driver correcto, Windows puede mostrar la GPU como genérica o ni siquiera listarla.

  Mejores apps de Windows para reproducir podcasts

¿Qué versión de CUDA tienes? Abre PowerShell o CMD y ejecuta nvcc –version. Este comando devuelve la versión del compilador NVCC instalado y te orienta sobre qué Toolkit está activo en PATH.

¿CUDA no está disponible o tienes problemas con los drivers? Abre GeForce Experience para comprobar actualizaciones. Si no aparecen, consulta la página de controladores de NVIDIA y descarga la más reciente. Instala el driver más nuevo compatible con tu GPU y reinicia si es necesario.

Caso práctico habitual en portátiles con GPU híbrida

Imagina un portátil como un Lenovo Ideapad con CPU AMD Ryzen, una NVIDIA GeForce GTX y una GPU AMD Radeon integrada. Al ejecutar nvidia-smi, quizá veas algo como “Driver Version: 526.56, CUDA Version: 12.0”, y tengas problemas instalando Toolkits como 12.8 u 11.8. ¿Qué está pasando?

Ten en cuenta que, desde CUDA 13, el driver no va incluido en el Toolkit y deben ser compatibles driver y Toolkit. Actualiza el controlador NVIDIA a la última versión disponible para tu GPU desde el sitio oficial o con GeForce Experience, realiza una instalación limpia y reinicia. Asegúrate también de que las apps usan la GPU NVIDIA y no la integrada (Perfil de alto rendimiento en Configuración de gráficos de Windows o Panel de control de NVIDIA).

Verifica además que Visual Studio está en versión compatible, que $(CUDA_PATH) apunta al Toolkit correcto y que no conviven restos de instalaciones antiguas en PATH. Compila y ejecuta deviceQuery y bandwidthTest: si pasan, tu entorno está bien. Si siguen los fallos, revisa el modo de driver (WDDM/TCC con nvidia-smi) y prueba desde una consola de VS para heredar las variables de entorno adecuadas.

Buenas prácticas al comprobar y mantener tu entorno

Antes de meterte en proyectos complejos, valida siempre con los samples oficiales. Son la forma más rápida de aislar problemas de instalación frente a errores de código propio.

Cuando cambies de Toolkit, confirma rutas y props en Visual Studio y la variable $(CUDA_PATH). Pequeñas desalineaciones de versión provocan errores de compilación o enlace difíciles de diagnosticar.

Para despliegues empresariales, el instalador completo y la instalación silenciosa con -s y -n te ahorran tiempo. Documenta los subpaquetes que realmente necesitas para mantener instalaciones ligeras y reproducibles.

Avisos, licencias y marcas al instalar CUDA

La documentación y materiales de NVIDIA se facilitan con fines informativos “tal cual”, sin garantías explícitas o implícitas de comerciabilidad, idoneidad o no infracción. NVIDIA puede modificar el contenido sin previo aviso y no asume responsabilidad por errores ni por el uso de la información.

La compra de productos NVIDIA se rige por sus Términos de Venta; no se forman obligaciones contractuales por el mero acceso a la documentación. Algunas aplicaciones (médico, militar, aeronáutico, espacio, soporte vital) no están autorizadas y su uso recae bajo exclusiva responsabilidad del cliente.

Puede requerirse licencia de terceros para ciertos usos mencionados. La reproducción de información requiere aprobación previa por escrito de NVIDIA, sin alteraciones y cumpliendo las leyes de exportación. NVIDIA no garantiza que los productos sean adecuados para un uso específico; es responsabilidad del cliente evaluar y probar.

OpenCL es una marca de Apple Inc., usada bajo licencia por Khronos Group. NVIDIA y su logotipo son marcas registradas en EE. UU. y otros países; otras marcas pertenecen a sus respectivos propietarios. Respeta siempre las directrices de marca y licencias al redistribuir o integrar materiales.

Nvidia alcanza los 5 billones de dólares de valoración
Artículo relacionado:
Nvidia supera los 5 billones de valor bursátil: claves del hito y su alcance

Ya tienes claro qué es CUDA, qué necesita tu equipo, cómo instalarlo con el instalador clásico, Conda o pip, cómo verificarlo con ejemplos oficiales, cómo integrarlo en Visual Studio, cómo usarlo dentro de WSL y cómo resolver incidencias típicas con drivers o GPUs híbridas; con estos pasos, tu entorno Windows quedará listo para acelerar tus proyectos con GPU de forma fiable. Comparte la información y ayuda a otros usuarios a instalar CUDA en Windows.