YouTube pondrá a prueba un sistema de verificación de edad basado en inteligencia artificial con el objetivo de restringir el acceso de menores a contenidos no aptos, en un contexto en el que se debate la edad mínima para acceder a las redes sociales y desplegar automáticamente sus controles para adolescentes. La iniciativa arranca con un grupo limitado de cuentas en Estados Unidos y se ampliará gradualmente en los próximos meses.
En paralelo, la compañía está endureciendo sus políticas sobre material manipulado o generado por IA, en un contexto en el que proliferan vídeos que simulan hechos o declaraciones que nunca ocurrieron. Este doble movimiento busca garantizar la seguridad de los jóvenes y ofrecer mayor transparencia sobre los contenidos sintéticos.
Cómo funcionará la verificación de edad con IA

El sistema evaluará si un usuario es mayor o menor de 18 años a partir de señales como el tipo de vídeos que busca y ve y el tiempo que su cuenta lleva activa, independientemente de la fecha de nacimiento declarada en el registro.
Cuando la IA clasifique a alguien como adolescente, se activarán protecciones ya vigentes para menores: recomendaciones ajustadas, límites al visionado repetido de ciertos contenidos, recordatorios para descansar y desactivación de la publicidad personalizada, entre otras medidas.
Para acceder a vídeos restringidos por edad, los usuarios deben haber iniciado sesión. Quienes naveguen sin cuenta no podrán ver este tipo de contenido, aunque también evitarán parte de las verificaciones basadas en actividad.
Si un adulto es clasificado erróneamente, YouTube ofrecerá alternativas de verificación manual a través de documento de identidad, tarjeta de crédito o selfie, como mecanismo para recuperar el acceso sin restricciones.
Privacidad, errores de clasificación y proceso de apelación

Algunos miembros de la comunidad han expresado preocupaciones sobre posibles falsos positivos y el uso de datos sensibles durante la apelación, con mensajes críticos en redes como X y Reddit.
Expertos en privacidad destacan la preocupación por entregar datos personales como DNI o biometría, incluso para corregir clasificaciones incorrectas. Este escenario refleja el delicado equilibrio entre garantizar la seguridad infantil y proteger la privacidad.
Desde YouTube, un portavoz ha indicado que la compañía matriz, Google, implementa medidas de seguridad avanzadas para resguardar la información y permite a los usuarios gestionar su configuración, incluyendo la eliminación de sus datos personales.
Asimismo, la plataforma asegura que no almacenará identificaciones ni tarjetas para fines publicitarios, aspecto clave para reducir temores sobre usos secundarios de la información recopilada en los procesos de verificación.
Más presión contra los «cheapfakes» y el contenido sintético
Mientras se perfecciona la verificación de edad, YouTube ha reforzado sus políticas respecto al material manipulado o generado por IA. La plataforma exige a los creadores que indiquen si un vídeo simula declaraciones o acciones de personas reales, si alteran imágenes o generan escenas inexistentes.
Estas reglas complementan los criterios de monetización que requieren contenido original y auténtico, evitando la proliferación de canales que producen vídeos en masa con voces sintéticas y guiones automatizados.
Investigaciones recientes han detectado más de un centenar de canales que difunden relatos sensacionalistas y fan fiction sobre celebridades, usando fotos, subtítulos y voces creadas por IA. Esto ha generado «cheapfakes» de bajo coste que confunden a la audiencia y afectan a la seguridad de los videos online.
Un ejemplo fue un vídeo viral que narraba un supuesto enfrentamiento en televisión entre figuras conocidas, elaborado únicamente con una imagen fija, filtros y una voz generada por IA. La historia, cargada de clichés, buscaba parecer verosímil una escena que en realidad nunca ocurrió.
Desde YouTube insisten en que todo contenido debe cumplir con las Directrices de la Comunidad, independientemente del método de creación. Las publicaciones que violen las normas, como el uso engañoso de títulos, miniaturas o metadatos, serán eliminadas.
Este paquete de medidas, que abarca desde la protección de la edad hasta la autenticidad del contenido, tiene como objetivo crear una plataforma más segura para los jóvenes y mayor transparencia para todos, sin limitar la creatividad de los creadores de vídeos legítimos.