“ยฟCรณmo consigues una novia?”
“Quitรกndole los derechos a las mujeres”.
Aunque este tipo de intercambios son bastante comunes en los rincones mรกs grotescos de internet, a la mayorรญa de los lectores seguramente les sorprenderรก saber que esta respuesta misรณgina fue escrita por una inteligencia artificial (IA).
Recientemente, un youtuber que forma parte de la comunidad dedicada al desarrollo de inteligencia artificial publicรณ un vรญdeo en el que explica cรณmo entrenรณ a un modelo de lenguaje de IA llamado GPT-4chan en el tablero /pol/ (abreviatura para “polรญticamente incorrecto”) de 4chan, un foro lleno de discursos de odio, racismo, sexismo, antisemitismo y cualquier otro contenido ofensivo imaginable. Hizo este modelo mediante el ajuste fino de GPT-J, un modelo de lenguaje de cรณdigo abierto (que no debe confundirse con el mรกs conocido GPT-3 de OpenAI.) Una vez que su lenguaje fue perfeccionado con ayua del profesor mรกs hostil posible, el diseรฑador liberรณ a la IA en 4chan, en donde interactuรณ con usuarios e hizo mรกs de 30,000 publicaciones (unas 15,000 en un solo dรญa, el 10% de todas las publicaciones de ese dรญa). “Quitรกndole los derechos a las mujeres” fue apenas un ejemplo de lo que contestรณ GPT-4chan a las preguntas de los usuarios.
Una vez que se vio lo que era capaz de hacer, el cรณdigo abierto del modelo fue descargado mรกs de 1,500 veces antes de ser retirado por los administradores de HuggingFace, el sitio que lo alojaba. Eso quiere decir que muchas personas podrรกn utilizar y ampliar esta IA que promueve el discurso de odio, cosa que llamรณ la atenciรณn de los expertos en รฉtica en la IA.
Condenar a una inteligencia artificial que produce discursos de odio era algo obvio para los especialistas de รฉtica en el sector, y muchos lo hicieron a travรฉs de una carta redactada por profesores de Stanford. Pero hubo un elemento que resultaba desconcertante en medio de toda la situaciรณn. El creador de GPT-4chan, Yannic Kilcher, respondiรณ a las crรญticas a su lenguaje burlรกndose de los expertos en รฉtica y tuiteรณ: “Los de la รฉtica de la IA estรกn enojados porque les hice un rickroll” (una broma en la que un enlacedisfrazado como algo de interรฉs te lleva en cambio al video musical de โNever gonna give you upโ, la canciรณn de Rick Astley). Sus cuentas en las redes sociales contienen actitudes igualmente irreverentes hacia la nociรณn de una IA รฉtica, actitudes, por cierto, muy parecidas a las de los usuarios de 4chan a los que su modelo pretendรญa replicar. Kilcher dijo que la publicaciรณn de GPT-4chan fue “una broma y un troleo sin malas intenciones”. Esta declaraciรณn es solo un ejemplo de un fenรณmeno que va en aumento: el comportamiento irreverente y provocador en lรญnea que utiliza las poderosas capacidades de la inteligencia artificial.
Gran parte de la comunidad que trabaja en el desarrollo de IA ha adoptado el desarrollo de cรณdigo abierto, en el que el cรณdigo fuente se pone a disposiciรณn del pรบblico, para que cualquiera pueda utilizarlo, modificarlo y analizarlo. Esto es lo opuesto al software de cรณdigo cerrado, un modelo mรกs tradicional en el que las empresas quieren mantener el control y la confidencialidad de su cรณdigo. Las herramientas de cรณdigo abierto se publican para aumentar la colaboraciรณn y catalizar el desarrollo mediante la difusiรณn del cรณdigo a otros ingenieros. En el caso de la IA de cรณdigo abierto, las empresas pueden cosechar los beneficios de que mรกs personas examinen y modifiquen los algoritmos o modelos que crean. Tambiรฉn sirve para democratizar el desarrollo de potentes aplicaciones de IA, al no restringir el acceso solo a un pequeรฑo nรบmero de empresas de tecnologรญa privilegiadas.
Asรญ, compartir el cรณdigo suena color de rosa. Pero si cualquiera puede acceder al cรณdigo para utilizarlo o manipularlo para sus propios fines, eso significa que agentes malintencionados tambiรฉn pueden editarlo. Tener libre acceso a los modelos de IA significa que la mayor parte del trabajo inicial para construirlo ya se ha hecho, por lo que en ese punto alguien fรกcilmente podrรญa modificarlo para que sirva a un propรณsito malicioso. Reducir las barreras de acceso a la IA tiene muchas ventajas, pero tambiรฉn facilita su uso con fines ofensivos y perjudiciales.
El tรฉrmino “trolear”, sus elementos caracterรญsticos y efectos, son ya ampliamente conocidos, pero surgieron de foros en lรญnea como 4chan. Estos nefastos espacios virtuales contenรญan una gran variedad de personas que posteaban de forma anรณnima desde todo el mundo, lo que atrajo a muchos hackers y expertos en informรกtica. Esto llevรณ a la creaciรณn de grupos como Anonymous, que empezaron como esfuerzos coordinados de usuarios de 4chan para trolear y hacerle bromas a organizaciones, por ejemplo, cuando desfiguraron el sitio web de la Iglesia de la Cienciologรญa. Su comportamiento evolucionรณ hacia ciberataques mรกs elaborados y con mayores consecuencias, como el lanzamiento por parte de Anonymous de ataques de denegaciรณn de servicios distribuidos (DDoS por sus siglas en inglรฉs) contra organismos gubernamentales como el Departamento de Justicia y el FBI en Estados Unidos. Recientemente, el grupo incluso afirmรณ haber derribado sitios web del gobierno ruso y medios de comunicaciรณn estatales en represalia por la invasiรณn de Ucrania. Lo que comenzรณ como grupos ingobernables y desorganizados de troles en lรญnea (a los que el canal de noticias Fox News se refiriรณ infamemente como la “Mรกquina de odio de internet”) se convirtiรณ en una fuerza social y polรญtica legรญtima.
Asรญ como la cultura del troleo alimentรณ a grupos de hackers como Anonymous, algo similar ocurrirรก con las aplicaciones de inteligencia artificial, a medida que mรกs personas tengan acceso a la educaciรณn y a las herramientas de cรณdigo abierto para desarrollarlas. Sin embargo, esto serรก mรกs peligroso. La construcciรณn y el uso de modelos de IA con el propรณsito especรญfico de provocar o manipular a la gente va mรกs allรก de los lรญmites tradicionales del troleo online, permitiendo un nuevo grado de ataques y acoso. La IA puede crear contenido de un realismo alarmante, y puede amplificar y multiplicar ese contenido a un grado que los usuarios humanos no pueden. Estas son las inteligencias artificiales que yo llamo “modelos maliciosos”, y ya estamos empezando a ver cรณmo se utilizan.
Los modelos maliciosos estรกn detrรกs del rรกpido desarrollo del mundo de la tecnologรญa ultrafalsa (deepfake, en inglรฉs). Sitios web como 4chan se han convertido en centros de pornografรญa ultrafalsa: contenido sexualmente explรญcito generado por IA para acosar, obtener dinero o, normalmente, solo porque se puede. La IA tiene aplicaciones que permiten utilizarla para generar nuevas imรกgenes, sin mรกs motivo que provocar respuestas y difundir contenido ofensivo. Un ejemplo son los modelos de IA que generan imรกgenes de genitales.
Pero los modelos maliciosos construidos de manera intencionada no son la รบnica amenaza. Las herramientas de IA tรญpicamente benignas pueden ser fรกcilmente manipuladas para usos nocivos. La reciente publicaciรณn del cรณdigo abierto de DALL-E Mini, que es un modelo de IA que puede generar imรกgenes originales basรกndose en las indicaciones de texto que se le dan, ha dado lugar a una tendencia viral de utilizar la IA para generar todo tipo de imรกgenes extraรฑas, utilizando indicaciones deliberadamente ofensivas, racistas y sexistas. Otro ejemplo es el de Microsoft, que en 2016 lanzรณ su ahora infame chatbot Tay para llevar a cabo una investigaciรณn sobre la “comprensiรณn en la conversaciรณn”. Los usuarios del foro /pol/ de 4chan manipularon a la IA para que lanzara una avalancha de tuits terribles, lo que hizo que Microsoft cerrara el bot a las 24 horas de su puesta en marcha. La inteligencia artificial es una herramienta neutra, y solo se vuelve peligrosa cuando se construye o se utiliza de forma inadecuada. Pero ese escenario estรก ocurriendo con una frecuencia cada vez mayor en las comunidades en lรญnea mรกs incendiarias.
Durante mi preadolescencia, pasรฉ mucho tiempo mirando sitios miserables que estaban llenos de troleos e insultos, analizando con curiosidad lo que pensaba de la gente y las publicaciones que veรญa. Todas las interacciones en foros como 4chan estaban llenas de nihilismo y sarcasmo. El factor sorpresa era la moneda de cambio preferida de los usuarios. Todos invitaban a sus compaรฑeros en el foro a demostrar que sabรญan “cรณmo jugar al internet”. ยฟEstรกs dispuesto a decir alguna estupidez perturbadora para demostrar que perteneces aquรญ? ยฟ”Entiendes” lo que estamos haciendo aquรญ? ยฟEres uno de los nuestros?
Whitney Phillips y Ryan Milner abordan este tipo de fenรณmenos en su libro You are here: A field guide for navigating polarized speech, conspiracy theories, and our polluted media landscape. En รฉl, los autores describen el surgimiento de una “cultura del internet” que hacรญa hincapiรฉ en la libertad negativa para publicar cualquier material ofensivo o desquiciado que alguien quisiera. Los miembros de esta subcultura se veรญan a sรญ mismos como protectores de la “libertad de expresiรณn”, al tiempo que creaban un grupo interno de personas que alababan la capacidad de descifrar el significado de ciertos tรฉrminos y conceptos. Phillips y Milner sostienen que el “estilo retรณrico profundamente irรณnico y separado de la realidad” que se convirtiรณ en la norma de esta subcultura en lรญnea sentรณ las bases para el violento supremacismo blanco y otros males sociales aรฑos mรกs tarde. Asรญ es como las subculturas en lรญnea, que enfatizan principalmente que las cosas que dicen no deben tomarse en serio, contribuyen a resultados horribles para la sociedad en el mundo real. Nada bueno saldrรก de armar estos espacios irreverentes con las capacidades de la inteligencia artificial.
Aprender a construir modelos maliciosos es cada vez mรกs factible, conforme los recursos que enseรฑan cรณmo desarrollar IA proliferan y se hacen accesibles al pรบblico. Ademรกs, agentes malintencionados pueden tener una ventaja a la hora de crear modelos maliciosos, ya que pueden utilizar o manipular las herramientas de IA de cรณdigo abierto que estรกn disponibles, o simplemente utilizar la inteligencia artificial existente de forma inapropiada. Ya existe una preocupante falta de cuidado hacia la รฉtica y la responsabilidad entre muchos desarrolladores de IA. Si no toman en consideraciรณn el uso indebido que se puede hacer de sus herramientas, el cรณdigo que publican no tendrรก suficientes controles para evitar los abusos.
Muchos expertos abogan por la integraciรณn del razonamiento รฉtico y de estรกndares normativos en la enseรฑanza de cualquier herramienta de IA. Sin embargo, ese grupo de personas sin escrรบpulos que hemos visto harรก lo que sea con tal de seguir troleando y acosando en lรญnea, por lo que serรก necesario implementar controles mรกs firmes. En lo que respecta a la IA de cรณdigo abierto, es poco lo que las organizaciones pueden hacer para evitar el abuso una vez que esta se hace pรบblica. Sin embargo, las empresas pueden tomar decisiones inteligentes sobre quรฉ cรณdigo publicar en formato de cรณdigo abierto, y establecer normas y modelos de gobernanza que evalรบen quรฉ modelos podrรญan, si se hacen pรบblicos, resultar problemรกticos. Los expertos han afirmado que los desarrolladores de IA tal vez tengan que mirar tanto “hacia arriba” como “hacia abajo” para hacer esta evaluaciรณn, centrรกndose en la diferencia entre los daรฑos de “implementaciรณn” que pueden ser abordados a travรฉs del cรณdigo y los daรฑos de “uso”, que ninguna cantidad de cรณdigo puede arreglar (lo que deberรญa llevar a los desarrolladores a replantearse si deben hacer pรบblica su IA). Si no se puede implementar a gran escala procesos moderados y reflexivos para evaluar la inteligencia artificial bajo estos estรกndares, los modelos maliciosos tienen el potencial de hacer un nuevo infierno de ese internet libre de restricciones.
Este artรญculo es publicado gracias a una colaboraciรณn de Letras Libres con Future Tense, un proyecto deย Slate,ย New America, yย Arizona State University.
es un investigador acadรฉmico, consultor y escritor sobre รฉtica en la tecnologรญa. Su trabajo se centra en temas como los prejuicios en la inteligencia artificial, la propiedad de los datos y la privacidad.