Facebook se queda corto ante el desafío ético de la transparencia

This is a Spanish translation of an article, originally published in English, by the EJN’s Aidan White about the leak of Facebook’s internal moderation guidelines to the Guardian newspaper.

You can also read the translation on the Red Ética Segura FNPI website

Aidan White

Las revelaciones hechas por The Guardian sobre las normas y códigos que Facebook ha desarrollado para hacer frente a la violencia, el terrorismo, la incitación al odio y una multitud de otras formas de abuso en línea, refuerzan un debate global muy necesario sobre los estándares éticos.

Lo sorprendente en esta historia sobre los Arhicvos de Facebook es que permite dar un primer vistazo a cómo se maneja la información al interior de esta empresa, un asunto que había permanecido bajo una notoria reserva.

Con casi dos mil millones de usuarios, Facebook ya es la primera empresa global de medios. Tiene el poder de moldear el paisaje social, cultural y político del mundo occidental y ya está bajo un intenso escrutinio por los gobiernos de Estados Unidos y Europa.

Y es un buen negocio. La compañía se ha enriquecido usando la tecnología para vender información personal de sus usuarios. En abril de este año, fue valorada en más de $350 mil millones de dólares.

Su modelo de negocio promueve todo lo que genere clics y despierte el interés, incluso si es información falsa o abusiva. No da prioridad a la información como un bien público, como lo hace el periodismo, y se siente abrumada por la sobrecarga de información.

Una fuente dijo a The Guardian: “Facebook no puede mantener el control de su contenido. Ha crecido demasiado, y demasiado rápido”.

Investigaciones recientes demuestran que, si bien Facebook no es una compañía de medios de comunicación tradicional, debe asumir  responsabilidades sobre cómo se utiliza su tecnología.

Imponer sanciones

Gobiernos como los de Gran Bretaña y Alemania, ya han condenado el fracaso de las compañías de redes sociales por no tomar medidas suficientes para hacer frente a contenidos peligrosos. Ahora están listos para imponer multas y controles legales, obligando a Facebook y otras empresas similares a detener el flujo malicioso de noticias falsas y contenido extremista.

Los medios de comunicación tradicionales también están llamando a la acción. El empobrecimiento del periodismo y las salas de redacción debido a que los ingresos por publicidad están siendo drenados hacia Google, Facebook y otros ha causado enfado, sobre todo porque muchos creen que estas empresas no reconocen sus responsabilidades editoriales.

La Asociación Nacional Americana de Editores de Periódicos ha hecho un llamamiento para que la red sea regulade y en el comienzo de junio, la Asociación Mundial de Prensa reunida en sudáfrica pondrá a trabajar a un grupo de expertos internacionales, entre los que se cuentan unos 150 ejecutivos de los medios de 50 países, que tiene como objetivo redefinir las relaciones entre las redes sociales y la industria de las noticias. Este grupo de expertos lanzará un informe sobre cómo Facebook hace su dinero – un punto delicado para los periodistas y editores de todo el mundo.

Lo que este informe y la historia de The Guardian tienen en común, es un enfoque en la cultura del ocultamiento que rodea a Facebook y a su forma de trabajo.

Palabras huecas

La empresa tiene una sólida retórica de buenas intenciones y emplea una serie de ideas brillantes para defender sus intereses. Monika Bickert, jefe de la política global de la empresa, por ejemplo, dijo a The Guardian: “Nos sentimos responsables por nuestra comunidad. Queremos mantenerlos a salvo y nos sentimos muy responsables. Es absolutamente nuestra responsabilidad mantenernos al tanto de lo que les sucede. Es un compromiso de la empresa”.

Pero las palabras suenan huecas. Facebook rara vez ofrece voluntariamente cambios en su enfoque. Parece que sólo responden a las peticiones retiradas sobre contenidos peligrosos; o cuando las quejas provienen de cualquier  anunciante poderoso o líder político; o cuando los medios de comunicación han hecho ruido, como por ejemplo sobre la censura de la famosa fotografía de la época de la guerra de Vietnam, Kim Phuc.

Hasta ahora, la compañía ha hecho cambios sólo como resultado de la presión externa e incluso entonces esos cambios han sido modestos. Como The Guardian  revela, vídeos de decapitaciones, un asalto sexual a un niño, y un hombre apuñalado solamente fueron retirados cuando los periodistas preguntaron acerca de ellos – a pesar de que los usuarios habían marcado los mensajes.

El centro del problema es que la empresa se niega a ser transparente acerca de la forma en que funciona. Este último informe es un buen ejemplo. Cientos de millones de usuarios de Facebook tienen por primera vez el acceso a la información sobre las disposiciones de la empresa para el seguimiento y la eliminación de contenido, pero sólo gracias a las fugas de información privilegiada, la investigación periodística de un medio de comunicación importante y testimonios anónimos de los empleados.

¿Faltan manos?

Esto es en sí mismo un indicador impactante de lo lejos que Facebook aún está de llegar a cualquier punto de la rendición de cuentas democráticamente creíble.

Sus algoritmos funcionan de maneras misteriosas que son controversiales, pero la empresa se niega a explicar cómo funcionan por razones de negocios. Sin embargo, esto no puede ser una excusa para no explicar las dificultades que tiene en cuanto a la moderación de la información.

Los moderadores empleados por Facebook se enfrentan a la tarea imposible de mantener el sitio libre de contenido extremista, ya sea producido por los terroristas o por individuos trastornados que cometen actos de asesinato y tortura. A pesar de que Facebook está reaccionando y promete una nueva inteligencia artificial para tratar de eliminar el contenido inaceptable con mayor rapidez, no emplea suficientes personas que ayuden ponerle orden a este sitio web fuera de control.

Se dice que dará empleo a 3.000 moderadores más para completar el equipo existente de 4.000. Eso no será suficiente. Como lo ha señalado la Red de Periodismo Ético, esto sólo proporcionará un moderador por cada 250.000 usuarios.

Es muy posible que los números por sí solos no vayan a resolver el problema, pero Facebook debe tener en cuenta que la transparencia no es un lujo. Es parte fundamental de la responsabilidad de los medios y la democracia.

El trabajo que está haciendo Facebook plantea preguntas legítimas sobre cómo se debe tratar el contenido, la forma en que afecta la democracia, y cómo influye en el panorama global de la información. La empresa se compromete a hacer más, pero su falta de la transparencia y ausencia de normas éticas siguen siendo un obstáculo para la construcción de confianza.


*Artículo publicado originalmente en inglés por Ethical Journalism Network (EJN).

Traducido con autorización y publicado al español por Hernán Restrepo, gestor de contenidos de la Red Ética Segura de la FNPI