En febrero, Molly White, de 27 años, recibió otro mensaje escalofriante: “tenemos a tres personas que van a hacer un recorrido [de tu apartamento] y lo observarán, pero no sabrás quiénes son porque no lo revelaremos, solo debes saber que llevarán una cámara oculta y estaremos compartiendo los detalles”. Para White, la amenaza fue un ejemplo más del acoso del que ha sido blanco como una de las colaboradoras más activas de Wikipedia.
Limitar el comportamiento malicioso es uno de los objetivos del nuevo “Código Universal de Conducta” de la Fundación Wikimedia, el cual se aplica a las ediciones de Wikipedia en distintos idiomas y a sus proyectos relacionados. El código, que se publicó el 2 de febrero, consagra conceptos como el respeto mutuo y la civilidad, y deja en claro que el acoso, el abuso de poder y el vandalismo de contenido son inaceptables. Según la fundación, más de 1,500 voluntarios de Wikipedia, que representan a cinco continentes y 30 idiomas, participaron en la creación del nuevo código.
No es que Wikipedia no haya tenido reglas de conducta en el pasado. La versión en inglés de la enciclopedia tiene una política formal de civilidad, y las condiciones legales de uso del sitio web también restringen los comportamientos dañinos. Pero hasta hace poco, esas políticas no eran universales en las ediciones de Wikipedia en otros idiomas, ni estaban escritas en un estilo de lenguaje sencillo con la intención de comunicar a los usuarios de a pie que no necesariamente conocen de leyes lo que se espera de ellos.
En otros artículos he argumentado que más personas deberían contribuir a Wikipedia. El trabajo voluntario para ese sitio ayuda a frenar la desinformación en internet y hace que el proyecto sea más completo como recurso compartido. Pero editar Wikipedia no está exento de costos. Sin duda, muchos posibles contribuyentes se han visto desanimados por las personalidades más tóxicas del sitio. Otros han sido acosados fuera de la wiki por personas que están molestas por cómo se ha escrito su página biográfica. Pero si más personas se sintieran seguras y bienvenidas al contribuir en Wikipedia, el sitio web podría por fin expandir y diversificar sus rangos de edición, y Wikipedia podría avanzar en su misión para convertirse en la suma de todo el conocimiento humano. Al menos, esa es la teoría que sustenta al nuevo código.
En el pasado, la fundación ha castigado las violaciones de los términos de uso vetando a los usuarios infractores. “Más allá de eso, la Fundación Wikimedia ha dejado el tema de la gobernanza comunitaria a las comunidades individuales, algunas de las cuales han desarrollado políticas y sistemas de cumplimiento bastante sólidos”, contó White. Por ejemplo, los administradores voluntarios como White –que son editores seleccionados por sus pares– pueden bloquear a los usuarios que violan las políticas contra la incivilidad. La versión en inglés de Wikipedia y algunos otros proyectos también tienen un Comité de Arbitraje, o ArbCom, compuesto por usuarios voluntarios, que revisa las disputas y el cual ha sido descrito como la “Suprema Corte” de Wikipedia. Ese no es el caso de las ediciones en otros idiomas, como la versión en escocés de Wikipedia, que ha tenido sus propios problemas.
Si bien la mayoría de nosotros sabemos cómo se manifiesta el acoso en TikTok o Twitter, quizá sea menos claro, para quienes están fuera de la comunidad de Wikipedia, cómo se ve en el contexto de una enciclopedia digital. El Informe de Equidad de Género 2018 de Wikimedia encontró que 14% de las mujeres que fueron entrevistadas habían experimentado una pobre salud comunitaria en Wikipedia, denunciando problemas que van desde una falta general de apoyo hasta el acoso. “Han publicado pornografía en mi página de usuario”, dijo una entrevistada. Otra entrevistada informó que había mucha “agresión cuando se habla de biografías de mujeres [en Wikipedia]”.
Meg Wacha, presidenta del capítulo regional de Wikimedia en la ciudad de Nueva York, me dijo que la inmensa mayoría de los editores con los que ha interactuado han sido amigables y comprensivos. “Disfrutamos pasar tiempo juntos y disfrutamos haciendo este trabajo. En su mayor parte, esas reuniones son experiencias realmente alegres”, dijo Wacha, y agregó que, en años anteriores, los miembros de la comunidad de Wikipedia han organizado fiestas increíbles. Por otra parte, la organización Wikimedia de Nueva York ocasionalmente ha encontrado ejemplos de comportamiento altamente abusivo, como violaciones del espacio personal del usuario o de su página de usuario (por ejemplo, convertir la página de usuario personal de un editor en un “muro de la vergüenza”) y el doxing (revelar información personal acerca de un editor).
Lamentablemente, la historia de White sobre su contribución a Wikipedia incluye varios casos de doxing. Ella comenzó a editar el sitio en 2008, cuando tenía 13 años, y durante años usó el nombre de usuario GorillaWarfare. Ella piensa que la mayoría de los editores de Wikipedia asumieron que era un hombre, en parte porque su nombre de usuario da esa impresión y también porque se estima que el 90% de los colaboradores del sitio son hombres, según encuestas. Luego, en 2011, White aceptó que la Fundación Wikimedia usara su foto en una campaña de recaudación de fondos que incluía solicitudes de donaciones de varios wikipedistas y empleados de la fundación. “Era más ingenua en ese entonces y no esperaba algo que ahora me parece obvio, que es que algunas personas se enforcaron en la fotografía de una mujer joven”, dijo White en un correo electrónico.
Desde entonces, la cuenta privada de Facebook de White ha sido publicada en 4chan y Encyclopedia Dramatica, un sitio de trolling conocido como el gemelo malvado de Wikipedia. Personas desconocidas se han puesto en contacto con su empleador para quejarse de sus contribuciones en Wikipedia. Ella recibe regularmente correos electrónicos de acoso, incluidas amenazas de violencia (a menudo extremadamente gráficas o sexuales), y algunas personas han explorado las páginas de Facebook de sus familiares, que tienen menos configuraciones de privacidad que la de ella. La directora ejecutiva de la Fundación Wikimedia, Katherine Maher, discutió a detalle el acoso de White en un discurso de 2016, y White dio permiso para usar su nombre en este artículo. “Poco tiempo después del doxing, comencé a ser abierta sobre mi nombre, género y ciudad”, escribió White. “Descubrí que, hasta cierto punto, si le dices a la gente cosas básicas personales, no se esfuerzan tanto en buscar la información que realmente me importa mantener en privado”. White dijo que su estrategia funcionó bastante bien hasta alrededor de 2018, cuando comenzó a editar páginas sobre temas más polémicos, como los incels.
La mayor parte del acoso contra White ha tenido lugar fuera de Wikipedia y en otros sitios. Pero otros tipos de acoso pueden tener lugar en la propia Wikipedia, como el horror conocido como hounding o persecución. Considere este caso hipotético: un editor de Wikipedia de un grupo minoritario está agregando contenido a la enciclopedia. El editor perseguidor, probablemente alguien que guarda algún resentimiento, comienza a eliminar sistemáticamente todas las contribuciones del otro editor. Por ejemplo, el editor podría eliminar un artículo biográfico de Wikipedia sobre una mujer argumentando que el perfil carece de notoriedad. Después de eso, el perseguidor eliminará una fotografía, alegando que no se pueden verificar los derechos de autor. A continuación, removerá las contribuciones de texto del otro editor sugiriendo que no están escritas en el estilo enciclopédico adecuado, es decir, desde un punto de vista neutral.
El perseguidor sigue borrando y borrando… Si se toman caso por caso, si se toma de manera individual, hay al menos un argumento plausible para cada movimiento. Después de todo, dos editores pueden discrepar razonablemente sobre lo que es correcto. Pero al retroceder un poco, queda más claro lo que realmente está sucediendo. El editor que hace el hounding vigila al otro editor, sigue todos sus movimientos y los interrumpe, a menudo con el objetivo de causar frustración y angustia. Es el equivalente del acecho en Wikipedia. Según me dijo Wacha, en el pasado los encargados de hacer cumplir las normas considerarían la mayoría de estos problemas como hechos aislados, centrándose en las disputas de edición específicas en lugar del panorama general. Un aspecto positivo del nuevo código, desde la perspectiva de Wacha, es que hay un nuevo lenguaje respeto a los patrones de abuso. El nuevo código establece explícitamente que “en algunos casos, el comportamiento que no alcanzaría el nivel de acoso en un solo caso puede convertirse en acoso por repetición”.
La mayoría de los problemas de comportamiento en la versión en inglés de Wikipedia han sido manejados por representantes de la comunidad, incluidos los administradores voluntarios y ArbCom. Este énfasis en la gobernanza por parte de los usuarios hace que Wikipedia sea muy diferente a Facebook y Twitter.
“Facebook es básicamente un sistema de soplones”, dijo Jillian C. York, activista por la libertad de expresión y autora de Silicon Values. Un usuario informa de un mal comportamiento, que luego es revisado por un empleado de Facebook o un contratista mal pagado que puede o no tener una buena comprensión del contexto social. “Wikipedia es muy diferente. Son los miembros de la comunidad, que se adhieren mutuamente a un conjunto de reglas, que para mí es la forma ideal de moderación de contenido “, dijo York. También señaló que existen algunas similitudes entre Wikipedia y Reddit, que históricamente ha otorgado un poder significativo a los moderadores de la comunidad.
En 2019, cubrí la proscripción de un editor llamado Fram, quien fue acusado repetidamente de acoso. Al principio, Fram fue vetado por el equipo de empleados de Confianza y Seguridad de la Fundación Wikimedia por violar los términos de uso del sitio. Pero el veto de los empleados de la fundación provocó un sorprendente alboroto entre los editores de Wikipedia, que pensaban que la fundación estaba excediendo su autoridad. Muchos editores voluntarios argumentaron que la propia comunidad debería ser la responsable de vigilar y hacer cumplir el castigo por el comportamiento. Finalmente, el asunto de Fram llegó a manos de ArbCom, que decidió eliminar las herramientas de administrador de Fram pero no bloquearlo del sitio por completo.
Al hablar sobre el nuevo código, la Fundación Wikimedia ha sido cuidadosa en aclarar que Wikipedia no tiene la intención de centralizarse o profesionalizarse al estilo de Facebook y Twitter. Más bien, el código tiene como objetivo “empoderar” a las comunidades mismas. Este mes, el código entró en la Fase 2, que está dedicada a la aprobación de la comunidad y las discusiones sobre la aplicación. “Un código de conducta solo es tan bueno como su implementación y el apoyo que brinda a las personas que están sujetas a él”, dijo Wacha, y agregó que la implementación y el cumplimiento son probablemente más importantes que el texto del código en sí. Otros editores de Wikipedia me dijeron que esperaban que la gobernanza comunitaria existente continuara en proyectos establecidos, como ArbCom en la versión en inglés de Wikipedia. Al mismo tiempo, el nuevo código podría ayudar a proyectos más pequeños que anteriormente no han tenido niveles suficientes de seguridad y apoyo.
Para aquellos fuera de la comunidad de Wikipedia, puede parecer bastante extraño que a los wikipedistas les apasione tanto el tema de la gobernanza por y para su grupo descentralizado de voluntarios. Pero tal vez eso es lo que hace que Wikipedia sea tan especial en comparación con otros sitios. “El código de Wikipedia busca garantizar que una comunidad de personas se comporte de cierta manera. La diferencia aquí es que estamos hablando de una comunidad”, dijo York. “Facebook no es una comunidad, pese a lo que Mark Zuckerberg quiera creer”.
Este artículo es publicado gracias a la colaboración de Letras Libres con Future Tense, un proyecto de Slate, New America y Arizona State University.
es columnista de Slate y abogado. Ha escrito para The New York Times y The Washington Post.