Google explica cómo ha hecho frente a la desinformación durante la pandemia | Innovación

Que si el coronavirus no existe. Que si la culpa de la pandemia es el 5G. Y también que si las mascarillas provocan hipoxia (falta de oxígeno en el organismo), hipercapnia (un aumento de la concentración del dióxido de carbono en la sangre) e incluso neumonía. La pandemia se ha extendido por todo el mundo a un ritmo imparable al igual que lo han hecho en la red estos y muchos otros bulos y afirmaciones sin evidencias científicas. Youtube asegura que trata de eliminar este tipo de mensajes de la plataforma con herramientas de aprendizaje automático —que detectan nueve de cada 10 vídeos eliminados de la plataforma— y sus empleados. Pese a ello, algunos vídeos plagados de afirmaciones falsas han acumulado miles de visualizaciones en los últimos meses. ¿Ha hecho suficiente la tecnológica para combatir la desinformación?

Marco Pancini, responsable de Asuntos Públicos de YouTube en Europa, Oriente Medio y África, contesta a esta pregunta explicando qué medidas ha tomado la plataforma en este sentido durante la pandemia —y sin entrar a valorar si le parece suficiente o no—. En una videollamada con un grupo de periodistas internacionales, menciona que la compañía ha actualizado sus políticas para “eliminar la información errónea o el contenido que puede poner en riesgo a los usuarios y contradice las pautas de las organizaciones de salud». Recientemente Youtube ha anunciado que también retirará de su plataforma las afirmaciones falsas que se publiquen en lo que se refiere a las vacunas de la covid-19.

Desde febrero, la tecnológica asegura haber eliminado más de 200.000 videos relacionados con información peligrosa o engañosa sobre el coronavirus. “El 96% de estos vídeos fueron eliminados a través de nuestro sistema automatizado”, afirma Pancini. Entre los contenidos que violan las reglas de Youtube, están aquellos que niegan la existencia del coronavirus, que sugieren que los síntomas son causados por el 5G o que promueven «remedios o curas peligrosas». La compañía tampoco quiere en su plataforma vídeos que cuestionen la eficacia de medidas como el distanciamiento social o la cuarentena y puedan llevar a las personas a actuar en contra de las recomendaciones de la Organización Mundial de la Salud o las autoridades locales.

Pero, ¿hasta qué punto son eficaces los controles en Youtube? Un equipo de investigadores de Oxford ha analizado más de un millón de vídeos sobre el coronavirus publicados en Youtube durante varios meses y en plena primera ola de la pandemia —entre octubre de 2019 y junio de 2020—. Los autores concluyen que a pesar de la inversión de YouTube en la eliminación automática de videos que infringen sus normas de la comunidad, muchos de estos videos acumularon “cientos de miles de visitas” y permanecieron visibles en la plataforma durante semanas antes de ser eliminados. La compañía tardó un promedio de 41 días en eliminar los vídeos con información falsa, según la investigación. La mayoría de usuarios que visualizaron estos vídeos no lo hicieron entrando directamente a Youtube, sino tras ser compartidos en Facebook.

Más allá del coronavirus

Cada minuto se suben cientos de horas de contenido nuevo a YouTube. La tecnológica no solo aborda el problema de la desinformación con la Covid-19. También se enfrenta al desafío de frenar la difusión de vídeos con información falsa sobre el cambio climático, curas milagrosas o procesos políticos. E intenta controlar que no se publiquen vídeos con violencia, que inciten al odio o con contenido sexual.

En total, entre julio y septiembre de 2020 Youtube borró 7,8 millones de vídeos por infringir sus políticas. Esta cifra es inferior a la del segundo trimestre del año: la plataforma eliminó entre abril y junio 11,4 millones de vídeos. “El valor atípico fue el del trimestre anterior”, indica Pancini. La compañía se apoyó entonces más en su algoritmo que en los moderadores humanos, que dejaron de ir a las oficinas por la situación generada por el coronavirus, para eliminar el contenido. Pero los trabajadores, según Pancini, ya han vuelto de nuevo a analizar una mayor cantidad de vídeos.

«Creemos que lo realmente exitoso es una combinación del uso de la tecnología y la revisión humana. Ese es el enfoque correcto para la moderación de contenido”, sostiene Pancini. Acto seguido, destaca que el 93% de los vídeos eliminados por Youtube fueron detectados primero por las máquinas que por los humanos. De esos vídeos marcados por las herramientas de aprendizaje automático, asegura que el 45% no recibió ni una sola visita y el 35% recibió entre una y 10 visitas. Entre julio y septiembre, Youtube también eliminó 1,8 millones de canales y 1.100 millones de comentarios.

Además de eliminar todo aquel contenido que viola sus políticas, la plataforma también trata de priorizar aquel contenido que proviene de las autoridades. Pancini destaca la importancia de ofrecer contexto. De hecho, debajo de algunos vídeos sobre la Covid-19 se muestran carteles que llevan a fuentes oficiales como la Organización Mundial de la Salud. Otro de los objetivos de Youtube es, según el responsable de Asuntos Públicos, reducir la propagación de un contenido que “no está en contra de sus políticas, pero que está muy cerca de estarlo”. Del mismo modo, la plataforma pretende recompensar a quienes suben vídeos con información fiable y asegurarse de que los puedan monetizar.

Lee más: elpais.com


Comparte con sus amigos!