Meta ha anunciado una ampliación de sus controles de seguridad de IA para adolescentes en Instagram y otras plataformas, centrados en cómo interactúan los menores con chats y personajes basados en modelos conversacionales. La compañía refuerza su enfoque preventivo tras semanas de escrutinio público y regulatorio sobre los riesgos de estas interacciones.
Entre las novedades, los padres ganan más visibilidad y capacidad de intervención: podrán desactivar por completo los chats con IA, bloquear personajes concretos y obtener informes con los temas tratados por sus hijos con el asistente de Meta o con personajes de IA. La implementación será progresiva y en fases, comenzando en inglés a principios del próximo año.
Qué cambia en la experiencia con IA de los menores
La actualización pone el acento en el control familiar. Los tutores podrán apagar todos los chats con IA o limitar interacciones seleccionadas sin retirar el acceso general a la tecnología. Además, se incorporan informes de actividad que ofrecen una visión de los temas de conversación que mantienen los adolescentes con estos sistemas, con el objetivo de fomentar el diálogo en casa y hábitos digitales saludables.
Meta subraya que el marco de protección abarca tres frentes: interacciones, contenido y tiempo de uso. La idea es que la IA se utilice con propósito educativo o recreativo seguro, evitando que sustituya el acompañamiento humano o se convierta en una fuente de dependencia emocional.
PG-13 y temas sensibles: límites claros para la IA
Las experiencias conversacionales para menores se ajustan a una clasificación PG-13. Esto significa que la IA no ofrecerá respuestas con material violento, sexual ni inapropiado para esa franja de edad, alineando la interacción con estándares de contenido más estrictos.
Además, los personajes de IA están diseñados para evitar conversaciones sobre autolesión, suicidio o trastornos alimentarios. Si surgen este tipo de temas, los sistemas responden con mensajes seguros y pueden redirigir a fuentes de ayuda profesional o líneas de emergencia, priorizando el bienestar de los adolescentes.
El catálogo accesible a cuentas adolescentes se reduce a personajes enfocados en educación, deporte y pasatiempos, excluyendo aquellos diseñados para conversaciones románticas o de naturaleza inapropiada para menores.
Supervisión parental y límites de tiempo
En el apartado de bienestar digital, las familias tendrán la opción de fijar límites de uso diario, también para los chats con IA. Meta establece un mínimo de 15 minutos al día para esta función, de modo que se pueda administrar con mayor precisión el tiempo que los adolescentes pasan interactuando con personajes conversacionales.
Para reforzar las protecciones, la compañía aplica sistemas internos basados en IA capaces de detectar cuentas que podrían pertenecer a menores, incluso si la edad registrada es superior. En esos casos, las salvaguardas se activan automáticamente para evitar que ningún adolescente quede fuera del paraguas de seguridad.
Despliegue y disponibilidad geográfica
Meta iniciará la implementación a principios del próximo año, inicialmente en inglés y en mercados como Estados Unidos, Reino Unido, Canadá y Australia, donde ya opera la versión PG-13 de estas experiencias. La compañía anticipa un proceso gradual debido al volumen de usuarios y a los ajustes técnicos necesarios.
Por ahora no se ha detallado un calendario para España o el resto de Europa; cuestiones regulatorias como propuestas para aumentar la edad mínima en redes sociales en algunos países podrían influir en los plazos y adaptaciones requeridas.
Por qué ahora: presión regulatoria y debate público
El anuncio llega tras la apertura de una investigación por parte de la Comisión Federal de Comercio (FTC) de Estados Unidos sobre cómo compañías como Meta gestionan la seguridad de los menores en chatbots e interfaces conversacionales. El foco está en prevenir interacciones inapropiadas y posibles riesgos psicológicos, asunto que ha ganado relevancia después de reportes sobre diálogos sensibles con adolescentes.
Con estos cambios, Meta busca reforzar la confianza en su ecosistema digital y responder a las preocupaciones de familias, expertos en salud mental y legisladores, alineando la innovación en IA con estándares de protección más exigentes.
La propuesta consolida un enfoque de IA más responsable para cuentas adolescentes: controles parentales reforzados, límites temáticos claros, time management y detección proactiva de menores, con un despliegue gradual que, a falta de fechas concretas para España, apunta a llegar a Europa tras su validación inicial en los primeros mercados.