moderadores de contenido

Las plataformas han reportado problemas de eliminación de contenido durante el último tiempo, lo que ha encendido las alarmas en cuanto a la libertad de expresión.

En la actualidad, según el informe Digital 2020 de We are Social y Hootsuite, más de 4.5 billones de personas usan Internet y los usuarios de redes sociales han superado los 3.8 billones. Esta cifra nos da una idea de la gran cantidad de información que circula en la Red, especialmente en plataformas relacionadas a comunidades virtuales. Por este motivo, y debido a la gran cantidad de fake news que han surgido durante la reciente crisis del Coronavirus, las grandes redes sociales como Facebook, Twitter, Google y Youtube, anunciaron hace algunos días en una declaración conjunta que están uniendo sus esfuerzos para combatir este tipo situaciones:

Estamos ayudando a millones de personas a mantenerse conectadas, al mismo tiempo que combatimos conjuntamente el fraude y la información errónea sobre el virus, elevamos el contenido autorizado en nuestras plataformas y compartimos actualizaciones críticas en coordinación con las agencias gubernamentales de atención médica de todo el mundo”, señalaron.

Sin embargo, durante las últimas semanas, varios usuarios de Facebook, por ejemplo, reportaron que algo extraño comenzó a suceder con sus publicaciones, las cuales pese a tener enlaces con contenido noticioso de sitios web legítimos, empezaron a ser eliminadas bajo el argumento de violar las reglas de spam. Esto llevó a que contenidos relacionado al COVID-19 fuera bloqueados en algunas publicaciones tanto de medios de comunicación como de cuentas personales.

Tras los cuestionamientos, la red social atribuyó el problema a un error en el filtro de spam automatizado que se había estado utilizando durante este periodo, debido a que sus trabajadores fueron enviados a sus casas para evitar contagios por el Coronavirus; impidiendo así que pudieran realizar sus funciones de moderación de contenidos desde sus hogares por las altas medidas de seguridad y privacidad que Facebook les exige. Situación similar sucedió con Youtube y Twitter, que también anunciaron que sus equipos de moderadores dejarían de realizar su trabajo para resguardarlos de la actual pandemia.

El tema abrió el debate hacia los posibles escenarios que podrían hacerse realidad al utilizar sistemas impulsados por Inteligencia Artificial (IA) para realizar la difícil tarea de categorizar los contenidos estas plataformas, lo cual podría significar una mayor cantidad de errores y una capacidad reducida para rectificarlos en un momento en el que la información y la comunicación se han vuelto esenciales para la población. 

De esto modo, el hecho dejó en evidencia lo que a menudo se encuentra oculto: hay una primera línea de defensa compuesta por moderadores de contenidos, quienes se encargan de revisar y filtrar publicaciones con información altamente sensible en las redes sociales, como por ejemplo explotación infantil, atentados, autolesiones, violaciones, entre otros, con el fin de erradicar la violencia y reforzar la seguridad de las personas. Sin embargo, al no poder contar con estos profesionales a cargo de la revisión de las publicaciones, quedamos a merced de las máquinas, cuyos filtros se aplican de forma transversal y generalizada, lo cual puede provocar bloqueos como los reportados y una intervención directa en el flujo de la información que puede significar una zona gris en cuanto a libertad de expresión.

Al no existir esta primera barrera humana de resguardo, los usuarios quedan sujetos a los criterios automatizados de los sistemas de IA, una situación preocupante en el contexto actual donde existe una crisis de salud pública y las personas se encuentran en cuarentena aisladas en sus casas pendientes de la información y actualización de datos que circulan a diario en Internet. En este sentido, de acuerdo al informe El Chile que viene (2019) de Cadem, en nuestro país, por ejemplo, el 50% de los usuarios de redes sociales utiliza Facebook para informarse, seguido por un 20% que usa Twitter con el mismo fin, lo que da cuenta del rol que han ido tomando estas plataformas como canales a través de las cuales las personas buscan estar al tanto del acontecer local y mundial.

Todo esto nos hace pensar en el impacto que podría llegar a tener el no contar con personas a cargo de la revisión de contenidos, sobretodo en términos de libertad de expresión y de información, ya que pese a los esfuerzos que se pueden realizar para el desarrollar el machine learning, el sistema de IA resulta incapaz en cuanto a la toma de decisiones más complejas que requieren otras acciones como revisar el contexto y los detalles de las publicaciones, por lo que puede llevarnos a una censura excesiva y, por lo tanto, peligrosa.

Escribe un comentario