El 25 de marzo, los directores ejecutivos de Facebook, Google y Twitter testificaron ante el Congreso de Estados Unidos sobre la desinformaciĆ³n en lĆnea. Antes de que la comparecencia iniciara, ya podĆamos predecir lo que sucederĆa. Algunos miembros del Congreso exigirĆan que las plataformas de redes sociales hicieran mĆ”s para evitar que las falsedades virales daƱen la democracia y provoquen violencia. Otros advertirĆan que la restricciĆ³n innecesaria del discurso podrĆa enfadar a ciertos elementos marginales y llevarlos a espacios menos gobernados.
Esta discusiĆ³n se repite despuĆ©s de cada crisis, desde Christchurch hasta QAnon e incluso la pandemia de covid-19. ĀæPor quĆ© no podemos salir de este punto muerto? Porque el debate sobre la lucha contra la desinformaciĆ³n puede ser en sĆ mismo una zona libre de hechos, con muchas teorĆas y pocas pruebas. Necesitamos tener un mayor dominio de la materia, y eso significa darle un lugar a los expertos.
Los acadĆ©micos han pasado dĆ©cadas estudiando la propaganda y otras artes oscuras de la persuasiĆ³n, pero la desinformaciĆ³n en lĆnea es un nuevo giro a este viejo problema. DespuĆ©s de la interferencia de Rusia en las elecciones estadounidenses de 2016, este campo recibiĆ³ una gran inyecciĆ³n de dinero, talento e interĆ©s. Ahora hay mĆ”s de 460 think tanks, grupos de trabajo y otras iniciativas enfocadas en el problema. Desde 2016, esta comunidad global ha expuesto decenas de operaciones de influencia y ha publicado mĆ”s de 80 informes sobre cĆ³mo la sociedad puede combatirlas mejor.
Hemos aprendido mucho en los Ćŗltimos cuatro aƱos, sin embargo, los expertos son los primeros en admitir cuĆ”nto desconocen. Por ejemplo, las verificaciones de informaciĆ³n han proliferado y las investigaciones muestran que pueden marcar la diferencia cuando se presentan de la manera correcta. Pero la reciente proscripiĆ³n del ex presidente de Estados Unidos, Donald Trump, de distintas redes sociales, es una muestra de dĆ³nde siguen existiendo brechas. Los efectos a largo plazo de estas expulsiones siguen sin estar claros. QuizĆ” las mentiras de Trump se desvanezcan en el vacĆo digital, o quizĆ”s su papel de mĆ”rtir en las redes sociales cree una mitologĆa aĆŗn mĆ”s duradera. El tiempo dirĆ”.
ĀæCĆ³mo es que no podemos saber algo tan bĆ”sico como si prohibir una cuenta realmente funciona? ĀæPor quĆ© las empresas de tecnologĆa mĆ”s grandes del mundo y los mejores acadĆ©micos no tienen respuestas mĆ”s claras despuĆ©s de aƱos de esfuerzo concentrado? Hay dos problemas subyacentes.
El primer desafĆo son los datos. Para desenredar los complejos factores psicolĆ³gicos, sociales y tecnolĆ³gicos que impulsan la desinformaciĆ³n, necesitamos observar a un gran nĆŗmero de usuarios reaccionar ante el contenido malicioso y luego ver quĆ© sucede cuando se introducen contramedidas. Las plataformas tienen estos datos, pero sus estudios internos pueden estar viciados por intereses comerciales y rara vez se revelan al pĆŗblico. La investigaciĆ³n creĆble debe realizarse de forma independiente y publicarse de forma abierta. Aunque las plataformas comparten algunos datos con investigadores externos, expertos destacados dicen que el acceso a los datos sigue siendo su principal desafĆo.
El segundo es el dinero. Se necesita tiempo y talento para producir mapas detallados de las redes sociales o para realizar un seguimiento del impacto que tienen los numerosos ajustes de software de las plataformas. Pero las universidades no suelen premiar este tipo de investigaciones. Eso hace que los investigadores dependan de ayuda econĆ³mica de corto plazo por parte de un puƱado de fundaciones y filĆ”ntropos. Sin estabilidad financiera, los investigadores luchan por contratar y evitan la investigaciĆ³n a largo plazo y a gran escala. Las plataformas ayudan a financiar parte del trabajo externo, pero esto puede generar la percepciĆ³n de que se ha comprometido la independencia de las investigaciones.
El resultado neto es un frustrante punto muerto. Mientras la desinformaciĆ³n y la influencia maligna corren desenfrenadas, las democracias carecen de hechos reales para guiar su respuesta. Los expertos han ofrecido una serie de buenas ideas (mejorar la alfabetizaciĆ³n mediĆ”tica, regular las plataformas), pero luchan por validar o perfeccionar sus propuestas.
Afortunadamente, hay una soluciĆ³n, ya que problemas muy similares se han abordado con Ć©xito antes.
En los inicios de la Guerra FrĆa, el gobierno de Estados Unidos vio la necesidad de un anĆ”lisis objetivo y de alta calidad de los problemas de seguridad nacional. ComenzĆ³ a patrocinar un nuevo tipo de organizaciĆ³n de investigaciĆ³n externa, dirigida por organizaciones sin fines de lucro como RAND Corp., MITRE y el Center for Naval Analyses. Estos centros de investigaciĆ³n y desarrollo financiados con fondos federales recibieron dinero e informaciĆ³n clasificada del gobierno, pero operaron de forma independiente. Por lo tanto, pudieron contratar personal de primer nivel y publicar investigaciones creĆbles, muchas de las cuales no fueron favorecedoras para sus patrocinadores gubernamentales.
Las empresas de redes sociales deberĆan tomar nota de este manual y ayudar a establecer una organizaciĆ³n similar para estudiar las operaciones de influencia. Varias plataformas podrĆan reunir datos y dinero, en asociaciĆ³n con universidades y gobiernos. Con los recursos adecuados y la independencia garantizada, un nuevo centro de investigaciĆ³n podrĆa abordar de manera creĆble preguntas clave sobre cĆ³mo funcionan las operaciones de influencia y quĆ© es efectivo contra ellas. La investigaciĆ³n serĆa pĆŗblica, omitiendo partes solo como respuesta a preocupaciones legĆtimas como la privacidad del usuario, no para evitar la mala publicidad.
ĀæPor quĆ© las plataformas deberĆan estar de acuerdo con este arreglo? Porque, en Ćŗltima instancia, el que haya reguladores, anunciantes y usuarios enojados es malo para sus negocios. Es por eso que Facebook recientemente gastĆ³ 130 millones de dĆ³lares para establecer una Junta de SupervisiĆ³n externa para la eliminaciĆ³n de contenido y se comprometiĆ³ a seguir sus fallos.
Es cierto que los crĆticos todavĆa ven a esa Junta de SupervisiĆ³n como un ente demasiado dependiente de Facebook. La amarga ruptura de Google con dos investigadores de inteligencia artificial ha amplificado aĆŗn mĆ”s las preocupaciones sobre el control corporativo de proyectos de investigaciĆ³n. Entonces, ĀæcĆ³mo podrĆa la gente confiar en un nuevo centro de investigaciĆ³n vinculado a las plataformas? El primer paso serĆa garantizar que un nuevo centro de investigaciĆ³n cuente con el respaldo no solo de mĆŗltiples plataformas (en lugar de una sola), sino tambiĆ©n de universidades y gobiernos.
De igual manera, se podrĆan legislar mĆ”s protecciones. Hay un movimiento en ascenso para actualizar la SecciĆ³n 230, la ley federal de Estados Unidos, que brinda a las plataformas sus limitaciones de responsabilidad mĆ”s importantes. Hasta el director ejecutivo de Facebook, Mark Zuckerberg, ha respaldado condicionar estas limitaciones a una mayor “transparencia, responsabilidad y supervisiĆ³n” de las empresas de tecnologĆa. Un paso prĆ”ctico en esta direcciĆ³n serĆa exigir que las plataformas compartan datos con un centro de investigaciĆ³n independiente y mantengan una relaciĆ³n cooperativa y de plena competencia con sus investigadores.
La desinformaciĆ³n y otras operaciones de influencia se encuentran entre los mayores desafĆos que enfrentan las democracias. No podemos quedarnos quietos hasta que comprendamos completamente esta amenaza, pero tampoco podemos seguir volando a ciegas para siempre. La batalla por la verdad requiere que nos armemos de conocimiento. El momento para comenzar es ahora.
Este artĆculo forma parte del Free Speech Project, una colaboraciĆ³n entre Future Tense y el Tech, Law, & Security Program del Washington College of Law de la American University, en el cual se revisan las formas en que la tecnologĆa influye en nuestra manera de pensar acerca del lenguaje.
Este artĆculo es publicado gracias a una colaboraciĆ³n de Letras Libres con Future Tense, un proyecto de Slate, New America, y Arizona State University.
es becario del Carnegie Endowment for International Peace.