Las discusiones sobre la desinformaciĆ³n en las redes sociales no avanzan. Hay una manera de cambiar eso.

El debate sobre la lucha contra la desinformaciĆ³n puede ser en sĆ­ mismo una zona libre de hechos, con muchas teorĆ­as y pocas pruebas. Para superar esto, la ciencia debe tener un lugar.
AƑADIR A FAVORITOS
ClosePlease loginn

El 25 de marzo, los directores ejecutivos de Facebook, Google y Twitter testificaron ante el Congreso de Estados Unidos sobre la desinformaciĆ³n en lĆ­nea. Antes de que la comparecencia iniciara, ya podĆ­amos predecir lo que sucederĆ­a. Algunos miembros del Congreso exigirĆ­an que las plataformas de redes sociales hicieran mĆ”s para evitar que las falsedades virales daƱen la democracia y provoquen violencia. Otros advertirĆ­an que la restricciĆ³n innecesaria del discurso podrĆ­a enfadar a ciertos elementos marginales y llevarlos a espacios menos gobernados.

Esta discusiĆ³n se repite despuĆ©s de cada crisis, desde Christchurch hasta QAnon e incluso la pandemia de covid-19. ĀæPor quĆ© no podemos salir de este punto muerto? Porque el debate sobre la lucha contra la desinformaciĆ³n puede ser en sĆ­ mismo una zona libre de hechos, con muchas teorĆ­as y pocas pruebas. Necesitamos tener un mayor dominio de la materia, y eso significa darle un lugar a los expertos.

Los acadĆ©micos han pasado dĆ©cadas estudiando la propaganda y otras artes oscuras de la persuasiĆ³n, pero la desinformaciĆ³n en lĆ­nea es un nuevo giro a este viejo problema. DespuĆ©s de la interferencia de Rusia en las elecciones estadounidenses de 2016, este campo recibiĆ³ una gran inyecciĆ³n de dinero, talento e interĆ©s. Ahora hay mĆ”s de 460 think tanks, grupos de trabajo y otras iniciativas enfocadas en el problema. Desde 2016, esta comunidad global ha expuesto decenas de operaciones de influencia y ha publicado mĆ”s de 80 informes sobre cĆ³mo la sociedad puede combatirlas mejor.

Hemos aprendido mucho en los Ćŗltimos cuatro aƱos, sin embargo, los expertos son los primeros en admitir cuĆ”nto desconocen. Por ejemplo, las verificaciones de informaciĆ³n han proliferado y las investigaciones muestran que pueden marcar la diferencia cuando se presentan de la manera correcta. Pero la reciente proscripiĆ³n del ex presidente de Estados Unidos, Donald Trump, de distintas redes sociales, es una muestra de dĆ³nde siguen existiendo brechas. Los efectos a largo plazo de estas expulsiones siguen sin estar claros. QuizĆ” las mentiras de Trump se desvanezcan en el vacĆ­o digital, o quizĆ”s su papel de mĆ”rtir en las redes sociales cree una mitologĆ­a aĆŗn mĆ”s duradera. El tiempo dirĆ”.

ĀæCĆ³mo es que no podemos saber algo tan bĆ”sico como si prohibir una cuenta realmente funciona? ĀæPor quĆ© las empresas de tecnologĆ­a mĆ”s grandes del mundo y los mejores acadĆ©micos no tienen respuestas mĆ”s claras despuĆ©s de aƱos de esfuerzo concentrado? Hay dos problemas subyacentes.

El primer desafĆ­o son los datos. Para desenredar los complejos factores psicolĆ³gicos, sociales y tecnolĆ³gicos que impulsan la desinformaciĆ³n, necesitamos observar a un gran nĆŗmero de usuarios reaccionar ante el contenido malicioso y luego ver quĆ© sucede cuando se introducen contramedidas. Las plataformas tienen estos datos, pero sus estudios internos pueden estar viciados por intereses comerciales y rara vez se revelan al pĆŗblico. La investigaciĆ³n creĆ­ble debe realizarse de forma independiente y publicarse de forma abierta. Aunque las plataformas comparten algunos datos con investigadores externos, expertos destacados dicen que el acceso a los datos sigue siendo su principal desafĆ­o.

El segundo es el dinero. Se necesita tiempo y talento para producir mapas detallados de las redes sociales o para realizar un seguimiento del impacto que tienen los numerosos ajustes de software de las plataformas. Pero las universidades no suelen premiar este tipo de investigaciones. Eso hace que los investigadores dependan de ayuda econĆ³mica de corto plazo por parte de un puƱado de fundaciones y filĆ”ntropos. Sin estabilidad financiera, los investigadores luchan por contratar y evitan la investigaciĆ³n a largo plazo y a gran escala. Las plataformas ayudan a financiar parte del trabajo externo, pero esto puede generar la percepciĆ³n de que se ha comprometido la independencia de las investigaciones.

El resultado neto es un frustrante punto muerto. Mientras la desinformaciĆ³n y la influencia maligna corren desenfrenadas, las democracias carecen de hechos reales para guiar su respuesta. Los expertos han ofrecido una serie de buenas ideas (mejorar la alfabetizaciĆ³n mediĆ”tica, regular las plataformas), pero luchan por validar o perfeccionar sus propuestas.

Afortunadamente, hay una soluciĆ³n, ya que problemas muy similares se han abordado con Ć©xito antes.

En los inicios de la Guerra FrĆ­a, el gobierno de Estados Unidos vio la necesidad de un anĆ”lisis objetivo y de alta calidad de los problemas de seguridad nacional. ComenzĆ³ a patrocinar un nuevo tipo de organizaciĆ³n de investigaciĆ³n externa, dirigida por organizaciones sin fines de lucro como RAND Corp., MITRE y el Center for Naval Analyses. Estos centros de investigaciĆ³n y desarrollo financiados con fondos federales recibieron dinero e informaciĆ³n clasificada del gobierno, pero operaron de forma independiente. Por lo tanto, pudieron contratar personal de primer nivel y publicar investigaciones creĆ­bles, muchas de las cuales no fueron favorecedoras para sus patrocinadores gubernamentales.

Las empresas de redes sociales deberĆ­an tomar nota de este manual y ayudar a establecer una organizaciĆ³n similar para estudiar las operaciones de influencia. Varias plataformas podrĆ­an reunir datos y dinero, en asociaciĆ³n con universidades y gobiernos. Con los recursos adecuados y la independencia garantizada, un nuevo centro de investigaciĆ³n podrĆ­a abordar de manera creĆ­ble preguntas clave sobre cĆ³mo funcionan las operaciones de influencia y quĆ© es efectivo contra ellas. La investigaciĆ³n serĆ­a pĆŗblica, omitiendo partes solo como respuesta a preocupaciones legĆ­timas como la privacidad del usuario, no para evitar la mala publicidad.

ĀæPor quĆ© las plataformas deberĆ­an estar de acuerdo con este arreglo? Porque, en Ćŗltima instancia, el que haya reguladores, anunciantes y usuarios enojados es malo para sus negocios. Es por eso que Facebook recientemente gastĆ³ 130 millones de dĆ³lares para establecer una Junta de SupervisiĆ³n externa para la eliminaciĆ³n de contenido y se comprometiĆ³ a seguir sus fallos.

Es cierto que los crĆ­ticos todavĆ­a ven a esa Junta de SupervisiĆ³n como un ente demasiado dependiente de Facebook. La amarga ruptura de Google con dos investigadores de inteligencia artificial ha amplificado aĆŗn mĆ”s las preocupaciones sobre el control corporativo de proyectos de investigaciĆ³n. Entonces, ĀæcĆ³mo podrĆ­a la gente confiar en un nuevo centro de investigaciĆ³n vinculado a las plataformas? El primer paso serĆ­a garantizar que un nuevo centro de investigaciĆ³n cuente con el respaldo no solo de mĆŗltiples plataformas (en lugar de una sola), sino tambiĆ©n de universidades y gobiernos.

De igual manera, se podrĆ­an legislar mĆ”s protecciones. Hay un movimiento en ascenso para actualizar la SecciĆ³n 230, la ley federal de Estados Unidos, que brinda a las plataformas sus limitaciones de responsabilidad mĆ”s importantes. Hasta el director ejecutivo de Facebook, Mark Zuckerberg, ha respaldado condicionar estas limitaciones a una mayor “transparencia, responsabilidad y supervisiĆ³n” de las empresas de tecnologĆ­a. Un paso prĆ”ctico en esta direcciĆ³n serĆ­a exigir que las plataformas compartan datos con un centro de investigaciĆ³n independiente y mantengan una relaciĆ³n cooperativa y de plena competencia con sus investigadores.

La desinformaciĆ³n y otras operaciones de influencia se encuentran entre los mayores desafĆ­os que enfrentan las democracias. No podemos quedarnos quietos hasta que comprendamos completamente esta amenaza, pero tampoco podemos seguir volando a ciegas para siempre. La batalla por la verdad requiere que nos armemos de conocimiento. El momento para comenzar es ahora.

 

Este artĆ­culo forma parte del Free Speech Project, una colaboraciĆ³n entre Future Tense y el Tech, Law, & Security Program del Washington College of Law de la American University, en el cual se revisan las formas en que la tecnologĆ­a influye en nuestra manera de pensar acerca del lenguaje.

Este artĆ­culo es publicado gracias a una colaboraciĆ³n de Letras Libres con Future Tense, un proyecto de SlateNew America, y Arizona State University.

+ posts

es becario del Carnegie Endowment for International Peace.


    ×

    Selecciona el paĆ­s o regiĆ³n donde quieres recibir tu revista: