buscar noticiasbuscar noticias

De esta manera Facebook contribuye a la violencia

El caso de Myanmar es el mejor ejemplo de las dificultades que tendrá la compañía para evitar más acusaciones de incitar al odio

De esta manera Facebook contribuye a la violencia

Naciones Unidas encargó en marzo de 2017 un informe sobre las violaciones de derechos humanos en Myanmar. Al poco de empezar su trabajo, un comentario en Facebook en Myanmar llamó "traidor nacional" a un activista local que colaboraba con el equipo de la ONU. El  post tuvo más de 1.000 interacciones, con comentarios así: "Es un musulmán. Son perros y deben ser disparados" o "Si ese animal sigue por ahí, encontradle y matadlo".

La misión de la ONU reportó el post cuatro veces. La respuesta siempre fue que no iba en contra "de los Estándares de Facebook". La misión mandó un email a una cuenta oficial de la red, sin respuesta. Al final, los miembros del equipo localizaron a un conocido en Facebook y el comentario fue eliminado. Poco después, la Misión detectó otros 16  posts calcados.

Mientras esto ocurría online, en la vida real el activista recibió advertencias de sus vecinos, amigos y otras personas que habían visto su foto en Facebook. Es el primer aviso, le decían. Según Naciones Unidas, no es un caso aislado.

Esta pequeña historia sacada de las 444 páginas del informe completo de Naciones Unidas es un ejemplo. Hay más. Después de meses de polémica sobre el papel de Facebook como amplificador del odio online en un país bajo la sombra del genocidio contra parte de su población musulmana (los rohinyá), la compañía acaba de sacar su propio informe. Facebook lo encargó a una empresa externa, BSR. Se publicó la tarde del 5 de noviembre, el día antes de las elecciones en Estados Unidos. Era un momento perfecto para evitar el foco.

La combinación de la lectura de ambos informes aporta solidez a la acusación que decenas de reportajes en medios y prepublicaciones de Naciones Unidas han lanzado: Facebook tiene responsabilidad en los delitos ocurridos en Myanmar. El reto es saber cuánta.

¿Habría habido violaciones de derechos humanos en Myanmar sin Facebook? Sí. ¿Habría habido las mismas, con la misma crueldad o con la misma aceptación por la población? No. "La Misión [de la ONU] no tiene ninguna duda de que la prevalencia del discurso de odio en Myanmar contribuyó al aumento de tensión y a un clima en que individuos y grupos pueden ser más receptivos a incitamiento y llamadas a la violencia", dice Naciones Unidas.

Facebook tiene aquí un problema y una ventaja. La ventaja es que es una plataforma. Lo que publica es responsabilidad de otros. Pero ahora viene el problema: Facebook no es una plataforma inocente, sino tendenciosa. Su algoritmo calcula qué mensajes captan nuestro interés y los promueve. El dilema entre qué es interesante por valioso y qué por morboso a Facebook le da igual. Pero a  Myanmar, no.

Myanmar no es un país cualquiera. "Antes de 2013 era una sociedad repleta de rumores", dice BRS. En 2010 había un móvil por cada 100 habitantes; en 2016, 95. "En un país donde la gente no sabía abrirse una cuenta de email, la mayoría de móviles llegaba precargado con Facebook", añade el informe de BRS. Esta situación, según la ONU, ha llevado a que Facebook fuera internet en Myanmar. Se estima que hay unos 20 millones de usuarios entre 53 millones de habitantes.

Si alguien sabía usar Facebook para promover una agenda de odio y control, Myanmar era su país. En 2013, activistas ya habían advertido a Facebook del drama posible. Hoy la respuesta de Facebook a esta tragedia -y a otras- es que fueron demasiado lentos. Pero en Myanmar lo peor que podía ocurrir no era que llegara a la Casa Blanca el presunto candidato de Rusia o que tus datos privados sean usados para mandarte anuncios. En Myanmar, las consecuencias eran más graves.

A partir de ahora, Facebook tendrá menos opciones de excusarse en su lentitud. Estas son cinco retos que ha prometido o que podría hacer y no está claro que vayan a ocurrir. El futuro de Facebook -y no solo en Myanmar- pasa por aquí:

1. Qué ocurre realmente. Facebook no comparte sus datos. La compañía sabe cuánta gente de una ciudad reacciona a determinados  posts y ver si coincide con disturbios. Facebook sabe qué comentarios se promocionan y para qué audiencias. Pero no lo dice: "En el contexto de Myanmar, este tipo de métricas ayudaría a entender la escala del discurso de odio dentro de la plataforma, que es como decir que sabríamos cuánta gente ha interaccionado con contenido de odio, quién lo ha compartido", dice Raymond Serrato, analista de redes sociales de Naciones Unidas.

Facebook no compartió estos detalles ni con BSR, la empresa que hizo el informe, así que el mapa de odio en Facebook no parece que vaya a llegar pronto.

2. Cómo vigilar millones de mensajes. En Facebook hay más de 2.000 millones de personas. El fundador Mark Zuckerberg ha prometido que 20.000 empleados controlarán los Estándares de la compañía: es decir, que miren mensajes reportados y decidan en segundos si son discurso de odio o cualquier otra anomalía.

El reto es extraordinario. Facebook está en más de 200 países, con sus culturas y lenguas. Para los 20 millones de usuarios en Myanmar, Facebook ha prometido 100 revisores, aunque en 2015 tenía solo dos, según Reuters. "Nos preocupan sus sesgos, falta de contexto (muchos de los contratados son diáspora [Facebook no tiene oficinas en Myanmar]) y falta de comprensión de lenguajes étnicos", dice Victoire Rio, coordinadora en Myanmar de la Red de Responsabilidad Tecnológica.

Por si fuera poco, estos revisores se encargan de revisar los  posts reportados por los usuarios. Pero no del resto.

3. Cómo adelantarse al problema. Los comentarios reportados ya son algo, pero la mayoría de mensajes borrados sobrevive unas horas que les permiten convertirse en virales.

Facebook tiene una respuesta a esa falta de inmediatez: inteligencia artificial. La decisión de suprimir será aparentemente siempre humana pero la detección automática de lenguaje de odio aspira a acelerar el proceso. Mientras los mensajes son revisados, Facebook "reducirá su distribución". Es su manera de decir que no permitirá que el algoritmo haga su trabajo, es decir, que viralice un mensaje a pesar de que sea de odio.

4. Cómo no frenar la mina de oro. Facebook gana mucho dinero porque los usuarios lo usan. Y lo usan porque les gusta lo que encuentran. Al contrario que un periódico, que procura poner lo importante primero, La compañía pone "lo que te interesa" primero.

Ese cálculo lo hace un algoritmo para cada usuario. Si en Myanmar -o donde sea- hay que retocar el trabajo del algoritmo para disminuir odio, para añadir fuentes fiables o promover contenido que "anime a la paz" o "una a comunidades", como pide el informe de BSR, o puede perjudicar la mina de oro del crecimiento de Facebook: el aumento de usuarios. Es como si a aficionados del Real Madrid, Facebook les enseña que la gente del Atlético y del Barça son buenos tipos. Su uso descendería.

Ese es el gran dilema de Facebook para el futuro. Su modelo de negocio es dar pasteles a quien le gusta el dulce y judías a los vegetarianos, pero nunca al revés. Si ahora debe ser ecuánime, no le será fácil.

5. Cómo ganar a los represores. El clímax político de Facebook fue el 25 de enero de 2011: fue la primera manifestación contra el régimen en Egipto, convocada en la red social. Poco después, ese mismo régimen (sin Mubarak) entendió que Facebook podía ser un arma poderosa para dos objetivos: identificar disidentes y promover campañas de desinformación.

El gobierno de Myanmar aprendió, como los de Filipinas o Rusia. El discurso de Facebook es que la red sirve para conectar a gente y ayudar a que conozcan sus derechos y sus libertades. Uno de ellos es la libertad de expresión. "Estamos menos preocupados por la restricciones a la libertad de expresión porque nuestra proximidad al daño real es mucho mayor", dice un activista anónimo en el informe de BRS. En un país donde el ejército monta páginas de Facebook para amenazar a ciudadanos ocultas tras nombres como "Profesoras jóvenes" o "Señor Celestial", la libertad de expresión es un problema secundario.

"Facebook se convirtió en una herramienta para la guerra psicológica. Permitía campañas de propaganda sin apenas coste con una velocidad y alcance sin precedentes, a la vez que convertía en barato y fácil identificar y acosar a los que se oponían a esa narrativa", dice Rio. Eso hace Facebook y cambiarlo no es fácil.





DEJA TU COMENTARIO
PUBLICIDAD

PUBLICIDAD