Así es como YouTube luchará contra los preocupantes abusos en su plataforma

En YouTube están teniendo un último tramo de año especialmente agitado: la proliferación de vídeos y comentarios totalmente inapropiados e incluso aterradores tanto en el servicio tradicional como en YouTube Kids ha hecho que las críticas de los usuarios se unan a una desbandada por parte de algunos anunciantes.

Estos acontecimientos han provocado una reacción en este servicio de vídeo en internet, cuya CEO, Susan Wojcicki, ha anunciado una serie de medidas para luchar contra el contenido inapropiado en la plataforma.

Cuatro grandes pilares

La máxima responsable de YouTube explicaba en el anuncio oficial cómo ha comprobado cómo YouTube ha sido "una fuerza para impulsar la creatividad, el aprendizaje y el acceso a la información", pero también destaca que "puede haber otro aspecto, más problemático, relacionado con la apertura de YouTube. He visto cómo algunas malas personas están explotando nuestra transparencia para confundir, manipular, abusar o incluso para hacer daño".

Eso ha hecho que en YouTube pongan en marcha unas medidas para atajar los graves problemas detectados en las últimas semanas. Todas ellas estarán dirigidas a ampliar el plan de acción que ya se había iniciado, y que se centra en cuatro grandes pilares:

  1. Más personas revisando más contenidos: uno de los problemas de YouTube en la gestión de este tipo de contenidos era la excesiva dependencia de algoritmos que no lograban atajar contenido inapropiado. Ahora el equipo de moderadores humanos se ampliará tanto para revisar esos vídeos que se van subiendo como para entrenar a los sistemas de "enseñanza artificial". El personal dedicado a esta tarea se ampliará a más de 10.000 personas en 2018 "dedicadas a la revisión de contenidos que infringen nuestras políticas".
  2. Eliminar cinco veces más vídeos gracias al aprendizaje automático: es evidente que los sistemas de aprendizaje automático que ayudan a filtrar contenidos inapropiados siguen siendo críticos ante la enorme cantidad de vídeos que inundan la plataforma. En Google indican que estos algoritmos "han revisado y marcado el contenido que habría requerido 180.000 personas trabajando 40 horas a la semana". Los algoritmos mejorados permiten detectar el 98% de los vídeos que detectan como contenidos violentos o extremistas, y "casi el 70% de contenidos violentos y extremistas a las 8 horas como máximo después de haber sido subidos a la plataforma".
  3. Mayor transparencia: la poca información que Google y YouTube han ofrecido sobre estos problemas también ha provocado un cambio en sus políticas de comunicación y transparencia, y Wojcicki hablaba de cómo en 2018 crearán un informe periódico con información sobre avisos recibidos y acciones llevados a cabo para "eliminar vídeos y contenidos que infringen nuestras políticas".
  4. Nuevo enfoque para la publicidad: la última parte de este plan de acción está dedicada a tratar de proteger sus ingresos por publicidad, y aquí el objetivo es "realizar más revisiones manuales e incrementar en gran medida la cantidad de expertos en nuestros equipos encargados de revisar la publicidad, para garantizar que los anuncios se utilizan solo en aquellos lugares donde deberían hacerlo". La CEO de YouTube indica que en las próximas semanas en YouTube "hablaremos con ambos grupos para poner a punto este enfoque".

Más información | YouTube
En Xataka | YouTube Kids y el terror: hay quien se dedica a asustar y traumatizar a los niños de forma sistemática, automatizada y masiva

Ver todos los comentarios en https://www.xataka.com.co

VER 0 Comentario

Portada de Xataka Colombia