Más del 20% de los vídeos recomendados en YouTube ya son generados con IA

  • Un estudio de Kapwing revela que más del 20% de los vídeos recomendados a nuevos usuarios de YouTube son contenido basura creado con IA.
  • 278 de los 15.000 canales más populares publican solo vídeos automatizados, que acumulan 63.000 millones de visualizaciones y 221 millones de suscriptores.
  • En España, unos 20 millones de usuarios siguen canales impulsados íntegramente por inteligencia artificial.
  • Creadores y comunidades enteras explotan el algoritmo con contenido de baja calidad, mientras YouTube defiende la IA como herramienta neutral.

vídeos de YouTube hechos con IA

Más de una quinta parte de los vídeos que YouTube sugiere a quienes se abren una cuenta desde cero corresponde a contenido de baja calidad generado con inteligencia artificial, diseñado sobre todo para captar clics y tiempo de visualización. Lejos de ser algo anecdótico, los datos apuntan a una auténtica industria del vídeo automatizado que se cuela de lleno en las primeras recomendaciones de la plataforma.

Este fenómeno tiene un alcance claramente global y cada vez más visible en España y en el resto de Europa, donde millones de usuarios se topan a diario con estos clips estridentes, repetitivos y casi sin narrativa. El negocio que hay detrás, según el análisis, mueve decenas de millones de dólares al año apoyándose en un volumen masivo de reproducciones.

Cómo se descubrió que más del 20% de los vídeos recomendados son basura de IA

La empresa de edición de vídeo Kapwing llevó a cabo un experimento muy sencillo: crear un perfil completamente nuevo en YouTube y dejar que el algoritmo hiciera el resto. Analizaron los primeros 500 vídeos sugeridos y comprobaron que 104 de ellos —algo más del 20%— eran contenido generado con inteligencia artificial de valor muy dudoso.

Además, los investigadores detectaron que alrededor de un tercio de esos 500 vídeos encajaba en la etiqueta de “brainrot”, un término que agrupa tanto la llamada “AI slop” (basura de IA) como otros formatos vacíos cuyo único objetivo es exprimir al máximo la atención del usuario.

Este tipo de producciones se caracterizan por historias prácticamente inexistentes, imágenes exageradas y estructuras muy repetidas, pensadas para enganchar a usuarios de todas las edades, incluidos menores, sin aportar contexto ni información relevante.

Los resultados del experimento, difundidos por medios como The Guardian, alimentan el debate sobre si el sistema de recomendaciones de YouTube está priorizando la calidad del contenido o si, en la práctica, da más peso a lo que garantiza más tiempo de reproducción y anuncios.

Expertos citados en el informe advierten de que esta avalancha de vídeos automatizados puede condicionar la primera impresión que reciben los nuevos usuarios de la plataforma, que se encuentran con un entorno saturado de ruido, mensajes vacíos y piezas difíciles de contextualizar.

15.000 canales analizados y una industria global del contenido automático

Más allá del experimento con la nueva cuenta, Kapwing analizó también 15.000 de los canales de YouTube más populares del mundo, incluyendo los 100 principales de cada país. Dentro de esa muestra, localizaron 278 canales que publican únicamente vídeos generados mediante inteligencia artificial etiquetados como “AI slop”.

En conjunto, estos 278 canales suman más de 63.000 millones de visualizaciones y 221 millones de suscriptores, cifras que dan una idea de hasta qué punto el fenómeno está asentado. Las estimaciones económicas sitúan sus ingresos combinados en torno a 117 millones de dólares anuales.

Kapwing describe este auge como la consolidación de una industria global de contenidos automáticos, adictivos y casi sin contexto, que no solo ha tomado posiciones en YouTube, sino también en redes como TikTok, Facebook o X, donde la lógica del scroll infinito favorece este tipo de clips.

  YouTube elimina canales de IA de baja calidad y sacude el ranking en España

Buena parte de estos vídeos se producen apoyándose en plantillas de animación, voces sintéticas y guiones generados por IA, lo que permite fabricar de manera muy rápida series de episodios casi idénticos, con cambios mínimos, que el algoritmo puede seguir impulsando si detecta que mantienen a los espectadores enganchados.

Según el análisis, casi el 10% de los canales que más rápido crecen en YouTube encajan ya en la definición de contenido generado por IA, lo que sugiere que el modelo de negocio basado en la automatización y el volumen está ganando terreno al contenido más elaborado o creativo.

España y otros mercados: millones de seguidores de canales de IA

El informe pone el foco en la distribución global de esta audiencia. En España, se calcula que unos 20 millones de usuarios siguen canales impulsados íntegramente por inteligencia artificial, lo que supone cerca de la mitad de la población del país.

La tendencia se repite en otros mercados: 18 millones de seguidores en Egipto, 14,5 millones en Estados Unidos y 13,5 millones en Brasil, según los datos recopilados. Aunque no se detallan cifras para todos los países europeos, el estudio deja claro que el fenómeno está ampliamente extendido también en la región.

La combinación de barreras de entrada muy bajas —basta con un ordenador, conexión a Internet y herramientas de IA relativamente accesibles— con el alcance mundial que ofrece YouTube ha acelerado la expansión de este tipo de canales, que pueden captar audiencias enormes sin grandes inversiones iniciales.

En el contexto europeo, donde se debate de forma intensa sobre la regulación de la inteligencia artificial y el papel de las grandes plataformas, esta proliferación de vídeos automatizados de baja calidad añade un frente más: el impacto sobre la protección de menores, la salud digital y la calidad del ecosistema informativo.

Para cualquier internauta español o europeo que llegue sin historial previo, es relativamente sencillo acabar atrapado en una cadena de recomendaciones dominada por contenido basura de IA, en la que los vídeos se suceden uno tras otro con apenas esfuerzo por parte del usuario.

Ejemplos de éxito: del mono Hulk indio al bulldog francés infantil

Entre los canales analizados, uno de los casos más llamativos es Bandar Apna Dost, con sede en India, que acumula alrededor de 2.400 millones de visualizaciones. Sus piezas, generadas con IA, narran las peripecias de un mono rhesus antropomórfico y un personaje musculoso inspirado en Hulk que luchan contra enemigos fantásticos o se montan en un helicóptero hecho de tomates.

Kapwing calcula que este canal podría estar generando hasta 4,25 millones de dólares de ingresos al año, todo ello gracias a una fórmula basada en animaciones chillones, escenas absurdas y violencia caricaturesca, sin apenas profundidad en la historia.

La investigadora en tecnología y derechos digitales Rohini Lakshané señala que el gancho de este contenido reside en lo absurdo de las tramas, los tropos hipermasculinos y la ausencia de una narrativa compleja, factores que facilitan que espectadores de distintos países y edades se sumen sin necesidad de contexto previo.

  Chats de grupo en Spotify: así funciona la nueva forma de comentar lo que escuchas

Otro ejemplo destacado en el estudio es Pouty Frenchie, un canal con base en Singapur que ha logrado aproximadamente 2.000 millones de visualizaciones. Sus vídeos muestran a un bulldog francés en aventuras animadas entre paisajes imposibles —como bosques de caramelos o platos de sushi de cristal—, a menudo acompañadas de risas infantiles de fondo.

En este caso, las estimaciones apuntan a unos ingresos cercanos a los 4 millones de dólares anuales. También se menciona el canal estadounidense Cuentos Facinantes, centrado en relatos animados para público infantil, que destaca por su elevado número de suscriptores dentro de la categoría.

Comunidades dedicadas a exprimir el algoritmo con contenido basura

El auge de estos canales no es casual. El periodista especializado Max Read describe una red de comunidades en Telegram, WhatsApp, Discord y otros foros donde se intercambian trucos, plantillas y hasta cursos de pago sobre cómo producir “slop” de IA que resulte lo bastante atractivo para monetizar.

En estos espacios se enseña a los creadores a detectar nichos rentables, optimizar títulos y miniaturas, ajustar la duración de los vídeos o aprovechar las últimas herramientas de generación de imágenes y vídeo para producir grandes volúmenes con el mínimo esfuerzo.

Algunos de los formatos que circulan por estos grupos rozan lo surrealista: Read menciona ejemplos de vídeos generados con IA de ollas a presión explotando en la cocina, diseñados únicamente para despertar curiosidad y acumular visualizaciones sin ofrecer contenido informativo ni contexto alguno.

Según el periodista, un buen número de los creadores que se suman a esta dinámica procede de países con salarios medios relativamente bajos en comparación con los ingresos potenciales en plataformas como YouTube, por lo que ven en la producción automatizada una oportunidad de mejorar su situación económica.

Todo ello contribuye a configurar una especie de economía paralela alrededor del algoritmo de recomendaciones, donde la prioridad no es tanto ofrecer algo valioso al espectador como entender qué patrones premia la plataforma y cómo explotarlos al máximo.

Impacto en la experiencia de usuario y en la calidad de la información

Diversos expertos consultados en el marco del estudio coinciden en que la expansión de la basura de IA está deteriorando la experiencia de uso de plataformas como YouTube. Para quien se registra por primera vez, la sensación puede ser la de entrar en un entorno saturado de vídeos ruidosos, repetitivos y difíciles de interpretar.

También se advierte del riesgo de “contaminación informativa”: en el mismo flujo de recomendaciones conviven contenidos educativos, informativos o de entretenimiento legítimo con piezas engañosas, absurdas o que trivializan situaciones sensibles, sin que siempre quede claro para el usuario qué está viendo ni por qué se le sugiere.

En Europa, donde avanza la regulación de la IA y se discute la responsabilidad de las grandes tecnológicas, fenómenos como este plantean interrogantes sobre cómo se deberían etiquetar y supervisar los contenidos automatizados, especialmente cuando van dirigidos a audiencias masivas o a colectivos vulnerables como los menores.

  Final de Stranger Things: así acaba la serie y por qué sigue dando que hablar

Organizaciones dedicadas a los derechos digitales subrayan que no se trata solo de una cuestión estética o de “mal gusto”, sino de posibles efectos en la atención, en la percepción de la realidad y en la confianza que los ciudadanos depositan en las plataformas online como fuentes de información y ocio.

Con un sistema de recomendación diseñado principalmente para maximizar el tiempo de visualización y la interacción, los contenidos más elaborados, críticos o de nicho corren el riesgo de quedar enterrados bajo una avalancha de clips automatizados que funcionan mejor a nivel de métricas.

La postura de YouTube: la IA como herramienta neutral

Ante las conclusiones del informe, un portavoz de YouTube recordó que la inteligencia artificial es solo una herramienta y que puede utilizarse tanto para crear piezas de alta calidad como productos de muy bajo nivel. Desde la compañía insisten en que su objetivo sigue siendo conectar a los usuarios con contenidos fiables y de interés.

La plataforma asegura que elimina los vídeos que infringen sus normas de la comunidad, con independencia de si están realizados por personas, por sistemas automatizados o por una combinación de ambos, y que continúa ajustando sus políticas para hacer frente al contenido considerado inauténtico.

No obstante, los datos recogidos por Kapwing y por el análisis de The Guardian muestran que prácticamente uno de cada diez canales que más rápido crecen en YouTube utiliza contenido generado por IA, lo que pone en duda la eficacia real de las medidas actuales para frenar la proliferación de basura automatizada.

En este contexto, algunos analistas plantean que la plataforma debería ofrecer mayor transparencia sobre el origen de los vídeos que recomienda, permitiendo a los usuarios saber si lo que están viendo ha sido producido en gran medida por algoritmos o forma parte de cadenas de contenido repetitivo.

También se vuelve a poner sobre la mesa la posibilidad de ajustar el sistema de recomendaciones para penalizar con más fuerza los contenidos claramente vacíos o engañosos, sobre todo cuando dominan las sugerencias que reciben quienes todavía no han configurado sus preferencias ni su historial.

recomendaciones de YouTube con IA

El panorama que dibuja el estudio es el de un YouTube donde la basura de IA se ha ganado un hueco muy relevante en las recomendaciones iniciales, apoyada por una industria global bien organizada y una audiencia masiva repartida entre países como España, otros estados europeos y múltiples mercados emergentes. En un momento en que la regulación de la IA y el papel de las plataformas están en el centro del debate público, el equilibrio entre libertad de creación, negocio publicitario y responsabilidad hacia los usuarios parece más delicado que nunca.

Generar videos con IA
Artículo relacionado:
IA para generar vídeos: estas son las mejores opciones