Kyle Quinn es un profesor de biomedicina de la Universidad de Arkansas y el 11 de agosto se encontraba lejos del Charlottesville, lugar donde grupos supremacistas protagonizaban uno de los episodios más ignominiosos de los últimos tiempos para la democracia liberal estadounidense. Sin embargo, el profesor fue identificado por internautas a través de las redes sociales como un neonazi participante en los disturbios.
Nadie duda de las buenas intenciones de los grupos indignados por el asesinato de la activista Heather Heyer, atropellada durante la protesta por un neonazi que lanzó su auto contra quienes se manifestaban en contra de los extremistas; pero Quinn no era la persona que buscaban. Los internautas decidieron buscar a los neonazis que aparecían en las fotografías que circularon en los medios a través de perfiles en la red. De acuerdo con el diario New York Times estas pesquisas le valieron al profesor universitario una ola de insultos en sus redes personales.
Casos como éste demuestran la centralidad de estos espacios digitales para la difusión instantánea de acontecimientos en tiempo real, pero al mismo tiempo obligan a pensar sobre las responsabilidades que a cada quien corresponden en la batalla contra grupos radicales que aprovechan las redes sociales para organizarse, para difundir sus atroces actos y amplificar sus fines a escala global. ¿Qué responsabilidad tienen las redes sociales? ¿Qué papel deben jugar los gobiernos? ¿Qué nos toca hacer a los internautas?
Apenas en junio Facebook celebró haber llegado a 2 mil millones de usuarios, equivalente a poco más de un tercio de los habitantes del mundo. La misión de Facebook es crear comunidades para un mundo mejor, dijo para la ocasión el CEO Mark Zuckerberg, quien ha abandonado poco a poco su postura de negar toda responsabilidad de Facebook en la dispersión de noticias falsas y de facilitar la organización y reclutamiento de adeptos a los grupos extremistas en su plataforma.
Este cambio de postura ha sido paulatino y forzado por las circunstancias. Apenas este junio, luego de los atentados en Londres, la Primera Ministra de Gran Bretaña Theresa May demandó a Facebook y Twitter mantener una Internet libre de terrorismo y discursos de odio y les aseguró que tomaría medidas si no lo hacen.
Las exigencias se intensificaron a partir del año 2015, luego de la tragedia de San Bernardino, en donde 14 personas perdieron la vida en un tiroteo perpetrado por una pareja vinculada al Ejército Islámico. Familiares de las víctimas demandaron a Facebook, Google y Twitter por facilitar a los atacantes sus plataformas; según ellos sirvieron a los terroristas para conseguir sus objetivos.
Hasta entonces, y luego del revuelo por las noticias falsas difundidas durante la campaña presidencial de Estados Unidos, Facebook, que por su centralidad y penetración ha sido el blanco de las demandas de los afectados, no ha dejado de hacer esfuerzos para frenar el problema. Este año contratará a 3 mil personas que trabajarán 24 horas para detectar y remover material lesivo, además hará una clara apuesta por la inteligencia artificial que, según la empresa, de manera automática, permitirá comparar imágenes, comprender lenguajes y atajar la creación de cuentas falsas.
Este trabajo de edición lleva algún tiempo realizándose en la red social; inició desde antes de la tragedia de Virginia. La Organización Southern Poverty Law Center, que se dedica a monitorear a estos grupos dio a Facebook un listado de 200 cuentas ligadas al Partido Tradicionalista nazi y otros grupos similares. De acuerdo con la organización, 175 grupos de esa lista seguían activas cuando ocurrió lo de Charlottesville.
El problema no es solamente de Facebook sino de otras empresas como Twitter y YouTube, y también de otro tipo de sitios que son parte de la economía digital. Es así que el sitio de alojamiento GoDaddy y el de pagos en línea PayPal han dicho estar dispuestos a tomar medidas; incluso este último anunció que bloqueará el financiamiento a grupos violentos que suelen cambiar de servidores y nombres de cuenta como táctica para evadir bloqueos en lo que parece una batalla interminable.
También se ha creado el Foro Global del Internet y Contraterrorismo, en el cual Google, Microsoft, Facebook y Twitter compartirán información para bloquear a los grupos radicales, colaborarán con empresas tecnológicas más pequeñas, con gobiernos y las Naciones Unidas. Se trata de una de las medidas más importantes y de mayor alcance anunciadas en los últimos tiempos para atacar de manera frontal al terrorismo.
Pese a los esfuerzos humanos y tecnológicos, el ecosistema digital es demasiado amplio y esquivo, por lo que acabar con un problema que tiene sus orígenes en el mundo real no solo debe ser competencia de las empresas. La violencia no es un invento de Internet, como tampoco lo son los grupos nacionalistas o terroristas. Luego de los brutales ataques en Barcelona la filósofa española Amelia Valcárcel llamó en 140 caracteres, con la sensatez que la caracteriza, a condenar a quienes financian al Ejército islámico. Un llamado a los gobiernos y gobernantes que han favorecido el terrorismo y también a aquellos como Donald Trump cuya narrativa en Twitter contribuye a enaltecer la violencia.
La responsabilidad de las empresas no sólo es parcial, sino que además puede erigirlas en árbitros y censores de contenidos. La serie de medidas son pertinentes de no ser porque la línea que separa la buena intención corre el riesgo de vulnerar la libertad de expresión en algunos casos. Este es el dilema para los directivos de empresas tecnológicas que ahora se ven forzados a gestionar políticas de contenido. Matthew Prince CEO de CloudFlare, uno de los servicios de seguridad y rendimiento web más importantes del mundo, tomó la decisión de sacar de Internet el sitio nazi Daily Stormer luego de los disturbios de Virginia, pero en una entrevista con Vice reconoció que aunque personalmente sabe que hizo lo correcto, no tiene la certeza de que las empresas tecnológicas sean las que deban decidir quiénes permanecen en Internet.
Para la inteligencia artificial tampoco es una tarea resuelta. El año pasado Facebook removió la fotografía de la joven desnuda que huye de un bombardeo de napalm en Vietnam, una obra emblemática de Nick Ut merecedora del Premio Pulitzer y parte de la memoria histórica del siglo XX y que fue considerada por un algoritmo como imagen de contenido sexual. Este episodio devela que la inteligencia artificial aún tiene limitaciones de las cuales, el reconocimiento del metalenguaje es uno de los más retadores para la tecnociencia.
A los cibernautas no nos toca hacer justicia, pero eso no quiere decir que estemos exentos de responsabilidad. Debemos educarnos digitalmente para dejar de compartir el odio en nuestras redes, sobre todo, exhibirlo y condenarlo públicamente. Ha llegado el momento de dejar de ser consumidores digitales para transformarnos en ciudadanos digitales globales que promuevan la tolerancia y desafíen la violencia y a sus cómplices. Cada cual tendría que cumplir su parte a fin de acabar con toda forma de violencia
Investigadora de medios, Internet y cultura digital