En YouTube los directivos ignoraron el contenido tóxico porque lo primordial era crecer, según Bloomberg

Los máximos responsables de YouTube ignoraron las recomendaciones y propuestas de sus empleados a la hora de modificar el sistema de recomendación de forma que impidiera que se recomendaran vídeos tóxicos o teorías de la conspiración.

Un brutal informe de Bloomberg con entrevistas a varios empleados y exempleados de Google y YouTube vuelve a abrir el debate sobre un servicio que en los últimos tiempos se ha enfrentado a grandes polémicas. Los directivos —empezando por su CEO, Susan Wojcicki— sabían de esos problemas, pero no hicieron nada por resolverlos porque según esos comentarios lo importante era ante todo crecer en visitas y tiempo de visualización.

Contenido tóxico incontrolable

En los últimos años numerosos empleados de la empresa trataron de manifestar su preocupación por la avalancha de contenidos tóxicos que no solo se subían a la plataforma, sino que además acababan formando parte del sistema de recomendación que se diseñó para mantener a los espectadores el máximo tiempo posible viendo vídeos.

Los problemas con YouTube Kids han sido especialmente notables en los últimos meses, pero el control de contenidos tóxicos afecta sobre todo a la plataforma original, YouTube.

En Bloomberg indican que hasta cinco altos directivos que dejaron la plataforma en los últimos dos años lo hicieron hartos de no ser capaces de restringir contenidos "extremos y perturbadores". Precisamente esos contenidos extremos son los que más llaman la atención, algo que ha permitido a la plataforma crecer en todas sus cifras, incluidas las de ingresos: se estima que YouTube tiene unos ingresos de unos 16.000 millones de dólares al año.

La CEO de YouTube, Susan Wojcicki, sabía de estos problemas, pero según Bloomberg no estuvo "atenta a estos temas", y un ex-empleado afirmaba que la máxima responsable "nunca ponía el dedo en la llaga" y que su filosofía era la de "dirigir la compañía" en lugar de lidiar con la avalancha de contenido tóxico.

Para Wojcicki el objetivo al tomar las riendas del servicio era el de conseguir 1.000 millones de horas diarias de tiempo de visionado en YouTube. La empresa funcionaba por y para ese objetivo, indicaban en Bloomberg, y según las fuentes consultadas esas métricas eran lo único que importaban, y no lo que era mejor para la sociedad y sus usuarios.

Google se defiende de las críticas

En los dos últimos años se han impulsado iniciativas para tratar de minimizar un problema que por ejemplo ha afectado de forma especialmente notable a YouTube Kids. Un portavoz de Google indicaba a Xataka lo siguiente:

En los últimos dos años, nuestro enfoque principal ha sido abordar algunos de los desafíos de contenido más difíciles de la plataforma, teniendo en cuenta los comentarios y las preocupaciones de los usuarios, creadores, anunciantes, expertos y empleados. Hemos tomado una serie de pasos importantes, que incluyen la actualización de nuestro sistema de recomendaciones para evitar la propagación de información errónea dañina, mejorar la experiencia de noticias en YouTube, elevar a 10.000 el número de personas enfocadas en problemas de contenido en Google, invertir en aprendizaje automático para encontrar y eliminar más rápidamente el contenido inapropiado, y revisar y actualizar nuestras políticas: hicimos más de 30 actualizaciones de políticas solo en 2018. Y este no es el final: la responsabilidad sigue siendo nuestra prioridad número uno.

Desde Google recordaban cómo se han hecho "inversiones para enfrentar los desafíos más difíciles" como el contenido inapropiado, la desinformación o su sistema de recomendaciones.

En este último caso, Google recuerda cómo ese sistema de recomendaciones que antes de 2012 se basaba por ejemplo en visualizaciones pasó a basarse a tiempo de visionado, para luego pasar en 2016 a basarse especialmente en la satisfacción que se mide con "cosas como "me gusta", "nome gusta", "shares", encuestas, etc".

En Bloomberg no obstante recordaban que uno de los ingenieros de YouTube recomendaba en 2016 que los contenidos tóxicos o aquellos relativos a teorías de la conspiración no se recomendasen como parte de la experiencia de usuario. El ingeniero anónimo -como el resto de quienes citan en Bloomberg, por miedo a represalias- indicaba en el artículo que "puedo decir con mucha confianza que estaban profundamente equivocados".

Su propuesta fue rechazada durante años, aunque en enero de este año YouTube comenzó a ponerla en práctica, y sus portavoces indican que "en general, el contenido extremo no funciona bien en el sitio", algo discutible si tenemos en cuenta que por ejemplo Motherboard recuerda cómo la propaganda de supremacismo blanco y neonazi sigue presente en YouTube y tiene millones de visitas.

Ver todos los comentarios en https://www.xataka.com.co

VER 0 Comentario

Portada de Xataka Colombia