El atentado de Nueva Zelanda, una respuesta tardía a un crimen en tiempo real

Hoy en día un usuario con un dispositivo tan común como un teléfono móvil puede emitir desde cualquier lugar, sin necesidad de contar con conocimientos avanzados, y aprovechar los servicios que las plataformas ofrecen a sus usuarios. La emisión de una violación en Uppsala en Suecia, de suicidios en directo o, incluso, de actividades terroristas como la sucedida en Nueva Zelanda deja clara la necesidad de implementar medidas adecuadas para suspender la emisión en estos casos, donde la inmediatez en la actuación resulta tan necesaria para evitar la difusión de estos sucesos y su posterior replicación.

Aunque la percepción pública puede ser que las tecnológicas no dedican recursos a ello, lo cierto es que se están incorporando sistemas para actuar de forma rápida. Facebook, por ejemplo, incorporó sistemas basados en Inteligencia Artificial para detectar contenidos que pudieran suponer tendencias suicidas, y Twitter cuenta con un sistema específico de denuncia para tuits sobre amenazas de daño autoinfligido o suicidio y un equipo que evalúa los tuits y llega a los usuarios que creen que están en riesgo.

Las tecnologías de Inteligencia Artificial están facilitando la clasificación de contenidos como primer filtro de manera automatizada, asignando además prioridades para su posterior remisión a equipos humanos que serán mucho más eficientes gracias a contar con dicha información de antemano. Con ella pueden dedicarse de manera inmediata a aquellos contenidos señalados como prioritarios. Pero distan de ser perfectas o mágicas.

Por desgracia, la realidad es que todos los sistemas actuales con que cuentan las redes sociales no han impedido que el tirador de Nueva Zelanda emitiera 17 minutos de masacre a través de Facebook y Twitter. Un tiempo de respuesta que puede ser rápido si tenemos en cuenta los miles de millones de usuarios y millones de minutos consumidos que pueden mover estas plataformas, pero que al final ha supuesto que dicho contenido apareciera en las redes de muchos usuarios, autoreproduciéndose y compartiendo así el suceso.

Las nuevas propuestas pasan por establecer tiempos máximos de respuesta de la plataforma para evitar ser responsable, pero están principalmente pensadas para el caso de contenidos ya cargados en su totalidad, y no tanto en emisiones en directo. Lo mismo sucede con los mecanismos de Inteligencia Artificial, que requieren contar con un cierto contenido para proceder posteriormente a su análisis, lo que lo dificulta en emisiones en directo.

Loading...

Lo que está claro es que no hay que utilizar sucesos como el de Nueva Zelanda para plantear obligaciones no debidamente motivadas que supongan limitaciones de derechos fundamentales. Aumentar la colaboración con las fuerzas y cuerpos de seguridad, así como el desarrollo de herramientas automatizadas, es lo que puede permitirnos dar una respuesta a estas situaciones.

Lee más: abc.es


Comparte con sus amigos!

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *