Jillian C. York: “No podemos permitir que líderes no elegidos democráticamente tomen decisiones sobre lo que podemos decir”

La ensayista y activista en defensa de la libertad de expresión afirma que las grandes empresas multinacionales tienen la misma autoridad que algunos Estados para ejercer la censura.
AÑADIR A FAVORITOS
ClosePlease loginn

La activista y directora de International Freedom of Expression en la Electronic Frontier Foundation ha publicado Silicon values: the future of free speech under surveillance capitalism, donde argumenta que las grandes empresas tecnológicas son hoy como la Iglesia durante siglos: deciden de manera arbitraria lo que se puede y no se puede decir, proponen sus propios valores en todo el mundo y no rinden cuentas a nadie.

En el libro desafía la concepción clásica de que la censura solo proviene de los Estados.

Los Estados nunca han tenido el monopolio de la censura. Históricamente ha habido censura desde instituciones religiosas, autoridades comunitarias, etc. Es una visión muy limitada y quizá ingenua ver al Estado como el único censor. Especialmente en un escenario global y tan cambiante. Los creadores de la Declaración Universal de Derechos Humanos reconocían esto, cuando en el artículo 19 hablan de “a pesar de las fronteras”. Hoy hay grandes empresas globales que, a pesar de no tener un ejército detrás, tienen una autoridad que les permite crear cada vez más normas y estructuras que limitan la libertad de expresión.

Hay gente que piensa que, como Facebook o Twitter son empresas privadas, pueden controlar discrecionalmente el contenido que se publica en ellas. Otros, en cambio, cuestionan esta visión diciendo que ofrecen un “servicio público”, que son utilities, y que por eso deben ser reguladas como tales.

La analogía con “servicios públicos” o “infraestructura” no es la más correcta. Estas plataformas es verdad que actúan como si ofrecieran un servicio público y, sin embargo, lo que hay que conseguir es un sistema que permita la competencia, que permita florecer a plataformas de todo el mundo, y no solo de Estados Unidos. Al hablar de servicios públicos o infraestructura se asume que todas las empresas provienen del mismo país, y por lo tanto deben regularse con la legislación de ese país. Y es una visión muy alejada de la realidad, porque la naturaleza de internet es global.

Creo que el acceso a internet es un derecho humano y entiendo por qué este enfoque de regulación ha calado en la gente, pero no creo que considerar la regulación estatal como si fueran servicios públicos sea el mejor enfoque.

Escribe sobre la Ley de Decencia en las Comunicaciones (Communications Decency Act) que aprobó Bill Clinton en los noventa. Una de sus secciones, la 230, fue usada por las empresas tecnológicas para defender que “no eran editoras, sino que solo proporcionaban acceso a Internet o transmitían información y, por lo tanto, no podían ser consideradas responsables del discurso de sus usuarios”. ¿Por qué fue tan importante esto?

No es exactamente la sección 230 sino la Primera Enmienda lo que permite a las plataformas tecnológicas monitorizar su contenido como desean. Y esto sería así incluso si no existiera la sección 230. Lo que hace la sección 230 es protegerlas de demandas judiciales eternas. Que les hagan rendir cuentas por discurso de odio, por ejemplo.

La proposición original, de 1996, se produjo en una época en la que había una histeria por el contenido sexual en internet. Es lo que se llamó “guerras del porno”. La idea entonces era crear un espacio seguro online, proteger a la población de las obscenidades. Y esto es clave: el concepto obscenidad siempre ha sido legalmente ambiguo, especialmente en Estados Unidos. Es lo que muchos censores creen que están persiguiendo, en todo el mundo. La Ley de Decencia en las Comunicaciones se propuso originalmente para obligar a los proveedores de internet a censurar el contenido sexual. Esta ley, obviamente, no fue aprobada, porque era anticonstitucional. Pero se mantuvo una parte de ella, la sección 230, que exime de responsabilidad legal a las plataformas por el contenido que alojan.

La sección 230 es una cuestión muy importante y hay muchas propuestas para acabar con ella. Al mismo tiempo, hay que tener en cuenta una cosa: es una ley que no solo protege a Facebook y a los grandes, también protege mi web, pequeños comercios, individuos, blogueros, periódicos… Hemos visto lo que ocurre en los países en los que se eliminan este tipo de protecciones. En Tailandia a la bloguera Chiranuch Premchaiporn se le exigieron responsabilidades legales por comentarios antimonárquicos que sus lectores hicieron en su web. Eso es lo que pasa cuando decimos que toda web debería ser responsable del contenido que se produce en ella.

En el libro también escribe sobre la Primavera Árabe. Se convirtió en un cliché señalar el papel que tuvieron las redes sociales. Cuenta que en realidad empresas como Facebook, Twitter o YouTube no tenían una estrategia clara sobre qué hacer.

Facebook se creó en 2006, Facebook se hizo global en 2007, Twitter surgió poco después. Eran empresas muy jóvenes. Y en la época existía la creencia, no solo en Silicon Valley sino en Estados Unidos y en la esfera pública en la que yo trabajaba, de que las plataformas tecnológicas promoverían o ayudarían a promover el cambio social. Por supuesto, había gente, como yo o como Evgeny Morozov, que recordaban que había también un gran potencial para el daño y que los Estados y otros actores con malas intenciones podrían instrumentalizar estas plataformas. Pero, en general, la creencia más extendida es que iban a promover la libertad. Lo que estas empresas hicieron, especialmente Facebook, fue atribuirse el mérito de cómo estaban usando sus plataformas los activistas para organizarse. Facebook no provocó la revuelta de Egipto, hay una larga historia que se remonta a las protestas sindicales en los setenta, pero lo que Facebook permitió es que esas protestas alcanzaran una mayor audiencia. Al mismo tiempo, Facebook por entonces no tenía normas comunitarias, no tenían suficientes moderadores de contenido que hablaran árabe. Y era muy obvio desde el principio que los Estados usarían estas plataformas contra el pueblo. Y es exactamente lo que ocurrió en Egipto. Hemos visto cómo los Estados han usado estas plataformas para censurar a sus ciudadanos, para monitorizarlos, para identificar a gente lgtb o disidentes políticos. Y empresas como Facebook no supieron anticipar ni estaban preparadas para esto. Su idea era simplemente conectar al mundo, sin importar el coste.

Poco después de la Primavera Árabe Facebook abrió su primera oficina en Oriente Medio, en Dubai, una dictadura. Y en el libro escribe sobre la influencia de Arabia Saudí en Silicon Valley.

Facebook y Twitter, esta segunda mucho más pequeña que la primera, son dos empresas que no abrieron sus oficinas en Oriente Medio hasta 2012 en el caso de Facebook y 2015 en el de Twitter. En ambos casos fue tras sus respectivas salidas a bolsa. Y Dubai es para muchos estadounidenses el lugar obvio para hacer negocios. Es muy capitalista, tiene beneficios fiscales. Al mismo tiempo, es increíblemente represivo. Viola constantemente los derechos humanos. Facebook y Twitter no hicieron su diligencia debida, no tuvieron en cuenta los principios rectores sobre las empresas y los derechos humanos de las Naciones Unidas. No hicieron su trabajo. Llegaron ahí, ingenuamente, se asociaron con empresas locales intermediarias y esto tuvo rápidamente como consecuencia una mayor censura. Hay un ejemplo de Apple, aunque no está en mi libro. La empresa censuró a una artista libanesa y retiró su contenido de iTunes por su supuesto “contenido blasfemo”, una decisión moral que tomó un tercero a sueldo de Apple, no la propia Apple. Hemos visto cosas similares en estos países con respecto a la moderación de contenido. También hay un problema de externalizar la moderación de contenido a países donde el coste del trabajo es muy bajo. Buena parte de la moderación de contenido en todo el mundo se hace desde Marruecos. Y en Marruecos la lengua no se parece en nada al árabe que se habla en el resto de la región. Y esto provoca muchos errores. Las plataformas tecnológicas se trasladaron a la región a ciegas, atraídos por la riqueza y sus líderes millonarios. Y también por su ecosistema favorable a las empresas. Y, por supuesto, dieron más importancia a sus beneficios que a los efectos en la población.

Escribe que a las empresas tecnológicas no les ha interesado nunca la “moderación de contenido”. ¿Por qué?

A medida que estas empresas comenzaron a crecer, y sus comunidades se volvieron globales, se dieron cuenta de que había que poner algunas reglas. Facebook no tuvo unas normas comunitarias hasta 2011. Es algo que sorprende a mucha gente. Y cuando lo hicieron, estaban disponibles en muchos idiomas, pero en árabe no. A pesar de que se beneficiaron enormemente de la Primavera Árabe.

Se dieron cuenta de que tenían que hacer algo con el discurso de odio, el contenido que alojaban. No estoy en contra de que las empresas moderen su contenido. Lo que cuestiono es su legitimidad como censores. Pero reconozco dos cosas: son empresas privadas y hay contenido del que el mundo puede prescindir.

Las normas comunitarias de Facebook se elaboraron en secreto, a puerta cerrada, sin transparencia y sin contar con la sociedad civil. Y ahí está uno de los problemas. Hay expertos en todo el mundo que saben lo que es mejor para sus comunidades. Sin embargo, estas empresas solo se dedican a contratar a gente rica y blanca estadounidense que luego decide lo que puede decir cualquier persona en cualquier parte del mundo.

Uno de los problemas que surgen en este debate es la falta de rendición de cuentas. Dices que Facebook, más que funcionar como un Estado, funciona como la Iglesia.

Uso la analogía de la Iglesia porque provengo de una sociedad mayoritariamente cristiana. Pero no es solo la Iglesia, son las religiones que han decidido a lo largo de la historia qué se puede y qué no se puede decir. Estas compañías operan en una misma esfera de poder: promueven sus propios valores culturales, dicen que son comunidades y que tienen seguidores. Lo que hacen es imponer las ideas de sus directivos y accionistas al resto del mundo, sin ningún tipo de input de fuera. Por eso cuando una persona es excomulgada de la comunidad, no tiene ningún camino de salvación. No hay nadie realmente a quien puedas llamar para recuperar tu cuenta, por ejemplo.

No hay una manera de buscar un “remedio”. “Remedio” es un concepto clave en los principios rectores sobre las empresas y los derechos humanos de las Naciones Unidas.

Esto es algo que hemos exigido durante una década. Estas empresas ya nos han escuchado, les hemos propuesto ideas, pero no hacen nada. Y la única respuesta que se nos ocurre es que simplemente buscan su beneficio.

Otro problema importante es que estas empresas han externalizado la moderación de contenido no solo a países del Tercer Mundo sino también a algoritmos. Hay un proceso de automatización que provoca muchos errores: algoritmos que censuran arte porque lo identifican como pornografía, etc. Y hay también mucha opacidad sobre cómo deciden los algoritmos, bajo qué criterios.

Hay que ver el problema de manera holística. En primer lugar tenemos que revisar las reglas, hay que hacer una auditoría. ¿Qué reglas deberían existir? Estamos en 2021. ¿De verdad tenemos que prohibir los pezones o podemos dar a los usuarios las herramientas para eliminarlos de su propio feed si lo desean? Tenemos esas herramientas, estas empresas tienen sistemas de reconocimiento de imágenes. ¿Por qué no darle el poder a los usuarios en ese sentido? En segundo lugar, transparencia. Cómo se hacen las reglas y normas comunitarias. ¿Se hacen siguiendo los criterios globales de derechos humanos? Claramente no.

Y cuando haya unas reglas claras, por supuesto que seguirá habiendo que prohibir determinados contenidos. Diferentes culturas tienen diferentes visiones y experiencias sobre lo que es discurso de odio. Pero si ahora miras el rol que tiene Facebook, es completamente absurdo. Tenemos que ir al principio: qué es realmente incitación al odio, qué discurso es realmente peligroso, quiénes son los que promueven discursos más peligrosos. Y las prioridades de estas empresas están justo en el otro lado. Permiten que Donald Trump se salga con la suya incitando casi al asesinato y, al mismo tiempo, cancelan las cuentas de, por ejemplo, mujeres que insultan a sus acosadores. Y lo más importante es poner humanos moderando contenidos en vez de algoritmos. Porque aunque las personas también cometen errores, los algoritmos son incapaces de distinguir los matices, el contexto y la ironía.

¿Hicieron bien Twitter y Facebook al expulsar a Donald Trump de sus plataformas?

En cierto modo fue una buena decisión. Es obvio que han coartado su capacidad de expresarse. Y para la sociedad es probablemente algo bueno. Al mismo tiempo, tenemos que preguntarnos qué significa que una empresa privada pueda tomar una decisión así con un político. ¿Y si mañana Mark Zuckerberg decide que hay que cerrar la cuenta de, por ejemplo, Bernie Sanders, o elige tu político favorito de izquierdas? Vivo en Alemania. Hace poco el director del grupo mediático Axel Springer dijo que la crítica a Israel era inaceptable en sus publicaciones. Es una censura muy peligrosa. ¿Y si Mark Zuckerberg decidiera eso mañana? No podemos dejar que líderes no elegidos y sin rendición de cuentas tomen decisiones sobre lo que podemos decir. Hay que introducir normas democráticas en estos procesos. ~

+ posts

Ricardo Dudda (Madrid, 1992) es periodista y miembro de la redacción de Letras Libres. Es autor de 'Mi padre alemán' (Libros del Asteroide, 2023).


    ×  

    Selecciona el país o región donde quieres recibir tu revista: