Google dejará que sus sistemas de inteligencia artificial moderen todo tipo de sitios web

Google

Era algo necesario, aunque ha tardado demasiado en llegar. Esto mismo es lo que he pensado cuando he podido comprobar cómo en su última nota de prensa lanzada por el departamento de marketing de Google se anuncia que la compañía actualmente está desarrollando un nuevo sistema de inteligencia artificial capaz de moderar todo tipo de comentarios “toxicos” presentes en cualquier tipo de foro o comunidad.

Este nuevo proyecto ha sido bautizado bajo el nombre de Perspective y no es otra cosa que una nueva plataforma, insisto que todavía en fase de desarrollo, capaz de utilizar machine learning para procesar todo tipo de comentarios de forma completamente automática otorgándoles una puntuación de 0 a 100 en función de si verdaderamente son constructivos o todo lo contrario. Sin lugar a dudas una herramienta que seguro ayudará, cuanto menos, a limitar ese poder que puede tener un usuario cuando se expresa tras una pantalla de ordenador.

Perspective, la nueva plataforma de inteligencia artificial de Google para moderar comentarios ofensivos.

Ahora bien, comentarte que Perspective es tan sólo un sistema de inteligencia artificial de respaldo, es decir, una vez que la plataforma haya valorado y clasificado un comentario, queda en manos de cada editor el decidir qué hacer con el mismo. Como detalle, comentarte que esta decisión también puede ser automatizada en cada plataforma de forma que tan sólo se puedan publicar los mensajes con puntuaciones más elevadas, los mensajes con puntaciones más bajas, lanzar un aviso al autor indicando que su comentario puede ser ofensivo… esta decisión tendrá que tomarla cada administrador.

Sin lugar a dudas una herramienta muy interesante, sobre todo para comunidades demasiado grandes cuyo volumen de comentarios los hacen imposibles de moderar por cualquier persona, en palabras de la propia Google:

Perspective analiza los comentarios y los evalúa basándose en el parecido que tienen con los comentarios que las personas han indicado como “toxicos” o que, probablemente, pueden hacer que alguien abandone una conversación. Para aprender a detectar un lenguaje potencialmente tóxico, Perspective examina decenas de miles de comentarios etiquetados por personas dedicadas a revisarlos. Cada vez que Perspective encuentra nuevos ejemplos de comentarios tóxicos o recibe correcciones por parte de los usuarios, mejora su capacidad para evaluar los futuros comentarios.


Sé el primero en comentar

Deja tu comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*

*

  1. Responsable de los datos: Miguel Ángel Gatón
  2. Finalidad de los datos: Controlar el SPAM, gestión de comentarios.
  3. Legitimación: Tu consentimiento
  4. Comunicación de los datos: No se comunicarán los datos a terceros salvo por obligación legal.
  5. Almacenamiento de los datos: Base de datos alojada en Occentus Networks (UE)
  6. Derechos: En cualquier momento puedes limitar, recuperar y borrar tu información.