El pasado 3 de octubre, el tribunal supremo europeo asestó un fuerte golpe a la libertad de expresión al sentar las bases para que una sola nación actúe como censor global y demande que las plataformas en línea se comporten como sus subordinados y ejecuten esa censura.
En concreto, el Tribunal Europeo de Justicia decidió que un solo país de la UE (en este caso, Austria) podía demandar a un proveedor en línea (en este caso, Facebook) para que retirara una publicación objetable, supervisara el sitio en busca de contenido equivalente y eliminara también esas publicaciones. Y estableció que un país podría llevarlo a cabo en todo el mundo, sin importar el lugar donde se encuentre las personas que publican y ven el contenido. Con tal resolución, el tribunal demostró una devastadora ignorancia en lo que respecta a la tecnología implicada y preparó el escenario para que el país más proclive a la censura defina reglas de expresión globales.
El caso se deriva de una publicación en Facebook de abril de 2016, en la que un usuario compartió un artículo que contenía una fotografía de Eva Glawischnig-Piesczek, entonces presidenta del partido verde de Austria, junto con un comentario que la etiquetaba como “traidora inmunda,” “patana corrupta” y miembro de un “partido fascista”, aparentemente en respuesta a sus políticas de inmigración. Esto sería un discurso protegido en Estados Unidos, la clase de discursos políticos que la Primera Enmienda está diseñada para proteger. Pero no es el caso en Austria. Glawischnig-Piesczek declaró que había sido difamada y, con el respaldo de un tribunal austríaco, exigió que se eliminara la publicación de Facebook.
Con el tiempo, Facebook lo eliminó, pero de una manera segmentada geográficamente. La publicación no estaba disponible para usuarios que tuvieran acceso desde Austria, pero podía visualizarse desde cualquier otra parte. Glawischnig-Piesczek consideró que este planteamiento era insuficiente. Exigió que Facebook no solo eliminara la publicación que había identificado, sino que se buscaran y eliminaran publicaciones “idénticas” y “equivalentes” en todo el mundo. En otras palabras, nadie en ninguna parte estaba permitido a ver esa publicación particular. Y nadie en ninguna parte estaba permitido a publicar o visualizar ningún ataque equivalente sobre su persona.
En la práctica, la resolución da al tribunal austríaco –y a cualquier otro estado miembro de la UE– luz verde para emitir la clase de orden global que Glawischnig-Piesczek desea. Es de destacarse que la resolución se genera después de otro fallo en un caso que implicaba asuntos muy similares, pero obtuvo resultados muy diferentes. Ese asunto se centró en el alcance geográfico del derecho al olvido, es decir, la idea de que, para proteger la privacidad individual, los motores de búsqueda tienen la obligación de eliminar resultados no deseados que surgen en conexión con la búsqueda del nombre de un individuo. La pregunta era qué tanto se extiende geográficamente esa obligación. Francia quería que Google desvinculara mundialmente contenido objetable, en tanto que Google argumentó que la UE no debería imponer en todo el mundo su balance particular de privacidad y derechos de expresión. El tribunal europeo se puso del lado de Google, concluyendo que la ley de la UE no requiere la implementación global del derecho al olvido.
Pero como lo advertí en su momento, esa resolución también sentó las bases del juicio actual. En el fallo sobre el derecho al olvido, el tribunal concluyó que la ley de la UE no requiere la desvinculación global ni órdenes de eliminación, pero dejó abierta la posibilidad de que estados miembro individuales pudieran emitir tales órdenes de acuerdo con sus leyes nacionales, siempre que las órdenes cumplieran con otros aspectos de la ley de la UE. Por tal motivo es sorprendente la resolución del jueves. Aunque se puede concluir que Austria podría, conforme a la ley de la UE, ordenar que Facebook elimine globalmente una publicación particular, la obligación de buscar y eliminar publicaciones adicionales parece colisionar con otras disposiciones de la ley de la UE.
En términos específicos, la Directiva de comercio electrónico de la UE prohíbe –con toda razón– a los estados miembro imponer obligaciones de supervisión general en sitios de redes sociales y otros proveedores en línea. La supervisión impuesta por los gobiernos provoca una gama de inquietudes relacionadas con la privacidad, además de las obvias preocupaciones sobre la libertad de expresión, algo en lo que uno pensaría que la UE estaría particularmente interesada, dado su fuerte enfoque en proteger la privacidad individual y la protección de datos.
No obstante, el tribunal concluye que la prohibición sobre el monitoreo generalizado no aplica al monitoreo de específicos, incluyendo la obligación de supervisar publicaciones idénticas y equivalentes asociadas con un caso particular. El tribunal reconoce la inquietud sobre la supervisión general, pero afirma que esto se corrige cuando hay suficiente claridad con respecto a las clases de contenidos equivalentes que calificarían. De acuerdo con el tribunal, si existe claridad suficiente, entonces compañías como Facebook estarían libres de tener que hacer la clase de “evaluación independiente” que generaría preocupaciones. Simplemente podrían llevar a cabo los requisitos de eliminación con “herramientas y tecnologías de búsqueda automatizada”.
Esta es una afirmación destacable y muy errónea. Tal y como Kate Klonick y yo lo manifestamos con anterioridad, el tribunal presume un nivel de sofisticación tecnológica y grado de especificidad que simplemente no existen y, probablemente, nunca existirán. Incluso la aplicación de esto a publicaciones idénticas es problemática. No resulta muy clara la manera en que se espera que las compañías determinen lo qué es idéntico, a menos que los criterios para ello se limiten a porciones precisas de la publicación con imágenes precisas y palabras precisas. Con publicaciones equivalentes, marcar los límites resulta exponencialmente más difícil. ¿Qué pasa si se trata del mismo lenguaje, pero en un orden diferente? ¿Qué sucede si se trata del mismo lenguaje, pero no hay fotografía? ¿O se incluye una fotografía diferente? ¿Qué acontece si se citan dos de tres críticas –“traidora inmunda” y “patana corrupta”– sin hacer mención de las supuestas tendencias fascistas? Parece inevitable que una plataforma como Facebook tendría que dedicarse a una “evaluación independiente,” puesto que parece prácticamente imposible que un tribunal defina lo que es equivalente con suficiente especificidad.
E incluso si el alcance del contenido equivalente está especificado con exactitud, el contexto importa. El tribunal argumenta que le preocupa la diseminación de “contenido que, aunque transmita en esencia el mismo mensaje, está redactado de forma ligeramente distinta”, perpetuando, en consecuencia, el mismo presunto daño. Pero ¿qué pasa si la discusión no es una crítica a Glawischnig-Piesczek, sino una parodia de ella? ¿O una crítica a sus críticos? Ninguna herramienta tecnológica puede realizar estas evaluaciones de manera pasiva. Después de todo, hay una razón por la cual Facebook y otras compañías de redes sociales han contratado a decenas de miles de humanos para revisar publicaciones denunciadas, en un esfuerzo de “moderación de contenido” eficiente. Incluso en los casos en los que herramientas tecnológicas identifican contenido particular, los humanos necesitan evaluar el contexto y el significado.
Si las plataformas hacen exactamente lo que el tribunal sugiere –eliminar cualquier publicación con una combinación de palabras particulares que generan preocupación– arrasarían, casi con certeza, con grandes cantidades de declaraciones completamente inofensivas y legítimas. Estamos hablando de censura global a una escala potencialmente extensa y, como resultado, una severa osificación de debates y discursos públicos.
La resolución del tribunal europeo simplemente sienta las bases para la clase de obligaciones globales de supervisión y eliminación que nos preocupan. El caso ahora regresa a los tribunales austríacos, que aún tendrán que determinar el alcance de cualquier orden judicial. Por lo tanto, queda algo de esperanza. Después de todo, el tribunal sí afirmó que no quería que Facebook u otras plataformas en línea tuvieran que realizar evaluaciones independientes de contenido. En términos ideales, los tribunales nacionales se percatarán de que no hay manera de supervisar el contenido equivalente sin ir en contra de ese principio.
Este artículo es publicado gracias a una colaboración de Letras Libres con Future Tense, un proyecto de Slate, New America, y Arizona State University
es profesora del programa de Tecnología, Derecho y Seguridad en el Washington College of Law de la American University.