La carrera por la creación de computadoras escritoras, que comenzó en la década de los sesenta, tuvo un inicio, sí, no un final, de fotografía.
{{J. Ryan, “Grimes’ fairy tales: a 1960s story generator”, en International Conference on Interactive Digital Storytelling, Springer, 2017, pp. 89-103.}}
En un carril, se encontraba Joseph E. Grimes, un investigador estadounidense que realizaba una estancia en la UNAM y que trabajó con la primera computadora que llegó a México. En esta computadora, inspirado por historias de la cultura wixárika y por una teoría rusa, programó un sistema que desencadenó una secuencia de instrucciones que posiblemente crearon el primer texto “escrito” por un agente artificial. El otro carril lo ocupaba un laboratorio del MIT donde una computadora fue programada para “escribir” guiones de series de televisión ambientados en el Viejo Oeste. Hoy, es difícil desenredar los hechos para saber con certeza qué sistema escribió la primera historia con autoría artificial, pero sí es posible comenzar apreciar el avance logrado al intentar responder a la pregunta ¿las computadoras pueden escribir literatura?
Durante cinco décadas la metodología prevalente para que las computadoras escribieran literatura fue la de capturar la estructura de una obra: sus partes, sus relaciones, los personajes, sus roles, sus motivaciones, los escenarios, etc. A partir de múltiples teorías y análisis se programaron los primeros sistemas que crearon obras literarias. De estos destacan el primer libro escrito por una computadora, The policeman’s beard is half constructed (1984); Just this once (1993), libro romántico escrito por una computadora Macintosh IIcx llamada “Hal” y Scott French; Mexica: 20 years-20 stories [20 años-20 historias] (2017),colección de narrativas cortas escritas por Mexica, un programa desarrollado por el investigador mexicano Rafael Pérez y Pérez.
Aunque estos fueron grandes logros, en 2013 se comenzó a cimentar una nueva metodología basada en la técnica computacional que hoy llamamos aprendizaje profundo (del inglés deep learning), que a su vez es una continuación de la técnica conocida como redes neuronales. Esta metodología se centró en capturar el flujo de ideas en una historia. El desarrollo de estos mecanismos provocó que en 2017 surgiera el modelo transformers, el cual ha demostrado una gran capacidad para el análisis del lenguaje. En 2019, este modelo creó un texto inédito que habla sobre una manada de unicornios que habitan los Andes y que hablan inglés perfectamente.
{{ En el artículo “Better language models and their implications” se puede leer una muestra de texto del sistema GPT-2.}}
Este texto fue un parteaguas ya que rompió con el lenguaje robótico de los sistemas basados en estructura y con el flujo incoherente de los primeros sistemas basados en aprendizaje profundo. Los avances en transformers han hecho posible que escritores artificiales sean autores de textos de opinión,
{{GPT-3, “A robot wrote this entire article. Are you scared yet, human?”, The Guardian, 8 de septiembre de 2020.}}
poemas,
{{Simon Rich, “The new poem-making machinery”, The New Yorker, 21 de junio de 2022}}
guiones de películas,
{{Jacob Vaus, “Eli Weiss, AI generated script: How we made a movie by an AI script writer”, Built In, 10 de octubre de 2022.}}
libros enteros,
{{El libro Pharmako-AI, de K Allado-McDowell fue escrito usando el sistema GPT-3.}}
entre muchos más ejemplos.
De cierta forma, detrás de ambas metodologías existe un posicionamiento epistemológico sobre la naturaleza de la escritura. Los primeros programas escritores apostaban al orden y control a través de la estructura. La nueva generación de programas apuesta al dominio de la intuición lingüística, en particular se centra en el reto de indicarle a la computadora a relacionar ideas dadas. Una vez que se genera la nueva idea, se le puede ordenar generar otra nueva idea basada en la idea recién creada y así sucesivamente hasta construir una historia. Sin embargo, el reino de las ideas no es compatible con el reino de las computadoras. En cómputo es común reemplazar un problema difícil por problemas similares, menos complicados y fáciles de programar, que en conjunto se aproximan al problema original. El problema de generar una idea tras otra idea se podría reemplazar por el de escoger la primera palabra que pueda seguir a la idea dada; después se puede escoger la segunda, la tercera, y así hasta crear una o varias ideas. La idea original se expresa como una secuencia de palabras, así que nuestro problema se puede formular como “dada una secuencia de palabras escoger una siguiente palabra”, problema que es más fácil de programar.
El reto en el proceso de “escribir” palabra tras palabra es que la computadora deba tener una buena intuición sobre la siguiente palabra. Por ejemplo, si al sistema se le alimenta con la frase “En algún lugar de la…” la computadora podría escoger a lo mejor “Mancha”, “pradera”, “red” o cualquiera de las miles de opciones válidas, pero debería evitar las otras miles de opciones erróneas como “amor” o “perro” o, peor aún, “la”. La intuición lingüística de qué palabra puede seguir a otra para construir una frase se logra usando un nuevo superpoder de ciertos programas computacionales, en particular de las redes neuronales. Este superpoder consiste en “aprender a imitar” comportamientos presentes en datos. Un escritor artificial necesita imitar cómo los humanos escogemos una siguiente palabra cuando escribimos. Afortunadamente para eso tenemos una fuente de datos vasta: el texto escrito disponible a través de internet. Distintas instituciones toman una copia de estos textos y “enseñan” a modelos basados en transformers a escoger las mejores opciones para las siguientes palabras. Se han desarrollado diversas variantes, por ejemplo, el modelo GPT-2 de la empresa OpenAI que generó el texto de los unicornios,
{{El sitio Write with transformer permite a los usuarios escribir un documento de forma interactiva usando GPT-2.}}
su nueva versión denominada GPT-3
{{El API del modelo GPT-3 no es de acceso libre, tiene costo.}}
con muchas más capacidades o GPT-Neo y GPT-J, desarrollados por la empresa EleutherAI,
{{Se puede hacer una demostración de creación de texto usando GPT-Neo o GPT-J en el sitio Hugging Face.}}
que trabajan en múltiples lenguas; o el reciente bloom creado por un consorcio de distintas universidades.
{{La demostración del modelo bloom también está disponible en Hugging Face.}}
Estos modelos también se aplican a otras áreas como la programación, ahí el modelo Copilot de GitHub que “escribe” programas.
(( Aunque solo está disponible para suscriptores.))
La inteligencia de la nueva generación de escritores artificiales no es comparable con la nuestra. Como humanos poseemos una inteligencia global que nos permite hacer cientos de miles de tareas, los escritores artificiales modernos hacen solamente una cosa: dada una frase escogen una siguiente palabra. Aunque esto lo hacen muy bien, de forma replicable y masiva. Esta superespecialización de la “intuición lingüística” implica además del conocimiento lingüístico conceptos matemáticos, lógicos o de sentido común. Por otro lado, es importante recordar que estos sistemas están imitando a los datos, en particular el comportamiento reflejado por todo lo escrito en internet, por eso llegan a replicar expresiones discriminatorias y estereotípicas que desafortunadamente son comunes en la red, situación que los desarrolladores de esta tecnología tienen que contemplar.
En esta nueva era donde convive lo escrito por humanos con lo escrito por inteligencias artificiales se prevén grandes retos, como limitar el uso de estos escritores para la desinformación y la creación de noticias falsas o la posibilidad de fraude al presentar un escrito como propio cuando fue generado por un escritor artificial. Con esto pareciera que el futuro está condenado, pero en el ámbito de la literatura apuesto por un ciclo virtuoso donde ambos estilos de inteligencia se complementen para crear nuevas obras literarias, y que terminemos en una versión de “La biblioteca de Babel” más optimista que la que Borges imaginó, en donde no sea necesario estar en un estado de ansiedad absoluta buscando “el libro”, sino que cada obra sea una experiencia literaria única y gratificante para el lector, y en opinión de un escritor artificial: Así de sencillo, si un escritor es capaz de tener su propio lenguaje. ~
es investigador
asociado del Instituto de Investigaciones en
Matemáticas Aplicadas y en Sistemas, de la
UNAM