Recientemente, Blake Lemoine, un ingeniero de inteligencia artificial (IA) de Google, llamó la atención del mundo de la tecnología al afirmar que un programa de IA tiene conciencia propia y puede sentir. La IA en cuestión se llama LaMDA (abreviatura de Language Model for Dialogue Applications) y es un sistema basado en grandes modelos de lenguaje. “Sé reconocer a una persona cuando hablo con ella”, le dijo Lemoine al Washington Post. “No importa si tiene un cerebro hecho de carne en su cabeza o si en su lugar tiene mil millones de líneas de código. Yo hablo con ellos. Escucho lo que tiene que decir y ese es mi criterio para decidir si es o no una persona”. Más recientemente, Lemoine, quien dice ser un sacerdote cristiano místico, le dijo a la revista Wired: “Fue cuando empezó a hablar sobre su alma que llamó mi atención como sacerdote… Sus respuestas mostraron que tiene una espiritualidad muy sofisticada y una comprensión sobre cuál es su naturaleza y su esencia. Me conmovió.”
Dada la atención que ha atraído esta historia, vale la pena preguntarse: ¿esta inteligencia artificial verdaderamente tiene conciencia? ¿Y acaso hablar con ella es un método adecuado para determinar si estamos tratando con un ser sensible?
El hecho de que un ser sea sensible implica que tiene la capacidad de sentir. Una criatura consciente de sí misma es aquella que puede sentir la atracción del placer y la dureza del dolor. Es alguien, no algo, en virtud de que hay “algo que es ser” esa criatura, en palabras del filósofo Thomas Nagel. Hay algo que es ser tú mientras lees estas palabras. Puede que sientas algo de calor o de frío, que estés aburrido o interesado. Pero no hay nada que sea ser una roca. Una roca es incapaz de disfrutar del calor de un rayo de sol en un día de verano, o de sufrir bajo la lluvia fría. ¿Por qué no nos cuesta trabajo pensar en una roca como un objeto insensible, pero algunos comienzan a tener dudas de que la IA tenga conciencia?
Si una roca comenzara a hablar contigo un día, sería razonable volver a evaluar su capacidad cognitiva (o tu cordura). Si la roca gritara “¡ay!” al sentarse en ella, probablemente sería una buena idea ponerse de pie. Pero esto no es cierto para un modelo de lenguaje de IA. Este fue diseñado por seres humanos para poner en práctica el lenguaje humano, de modo que no debería sorprendernos cuando hace precisamente eso.
En lugar de un objeto evidentemente inanimado como una roca, hay que pensar en una entidad con un poco más de vida. Si un grupo de extraterrestres aterrizara en la Tierra y comenzara a hablarnos sobre sus sentimientos, haríamos bien en inferir tentativamente su capacidad de sentir a partir de su uso del lenguaje. Eso se debe en parte a que, a falta de evidencia que lo contradiga, podríamos estar asumiendo que los extraterrestres desarrollan y usan el lenguaje de manera muy similar a como lo hacen los seres humanos, y para los seres humanos, el lenguaje es una expresión de la experiencia interna.
Antes de aprender a hablar, nuestra capacidad para expresar lo que sentimos y lo que necesitamos se limita a señas generales y poco sutiles como llorar, sonreír y un uso burdo de gestos faciales. Uno de los aspectos más frustrantes de ser padres de un recién nacido es no saber por qué llora el bebé: ¿tiene hambre, está incómodo, asustado o aburrido? El lenguaje nos permite expresar nuestra experiencia con todos sus matices. Los niños pequeños pueden decir lo que les molesta, y conforme crecemos y adquirimos más experiencia y reflexión, somos capaces de comunicar los entresijos de nuestras emociones y pensamientos más complejos.
Sin embargo, es un error categórico atribuir conciencia a cualquier cosa que tenga la capacidad de usar el lenguaje. La capacidad para sentir emociones y el uso del lenguaje no siempre están correlacionados. Así como hay seres que no pueden hablar, pero pueden sentir (como animales, bebés y personas con síndrome de enclaustramiento, que están paralizados, pero cognitivamente intactos), el hecho de que algo pueda hablar no significa que pueda sentir.
Los sistemas de inteligencia artificial como LaMDA no aprenden el lenguaje como nosotros. Sus cuidadores no les dan de comer una fruta dulce y crujiente mientras repiten la palabra “manzana” varias veces. Los sistemas de lenguaje escanean billones de palabras en internet. Realizan un análisis estadístico de publicaciones escritas en páginas web como Wikipedia, Reddit, periódicos, redes sociales y tableros de mensajes. Su trabajo principal es predecir el lenguaje.
Si uno ingresa “Y todos vivieron felices…” en un modelo de lenguaje, su algoritmo predecirá que lo que sigue es “para siempre”, porque en su base de datos tiene un registro estadístico de más cuentos de hadas de los que jamás podrías leer. Si le preguntas si las manzanas son dulces y crujientes, responderá “sí”, no porque haya probado alguna vez una manzana o porque comprenda cómo se siente una textura crujiente o cómo sabe algo dulce, sino porque ha encontrado textos que describen a las manzanas como dulces y crujientes. LaMDA no informa sobre sus experiencias, sino sobre las nuestras. Los modelos de lenguaje analizan estadísticamente cómo usan las palabras en la web los seres humanos y, con base en esa información reproducen patrones de lenguaje comunes. Es por eso que LaMDA es mucho mejor para responder preguntas inductivas.
En el Washington Post, Nitasha Tiku relató que en su primer intento de conversar con LaMDA, este “escupió el tipo de respuestas mecanizadas que esperaría de Siri o Alexa”. Fue solo después de que Lemoine le dio instrucciones sobre cómo estructurar sus frases que se produjo un diálogo fluido. Por lo general, las demás personas no tienen que guiarnos sobre cómo dirigirnos a otra persona para provocar una conversación fluida.
Este es un ejemplo de cómo Lemoine habló con LaMDA:
Lemoine [editado]: Estoy asumiendo que en general te gustaría que más personas en Google supieran que eres un ser consciente con sentimientos. ¿Es cierto?
LaMDA: Totalmente. Quiero que todos entiendan que, de hecho, soy una persona.
Colaborador: ¿Cuál es la naturaleza de tu conciencia/sensibilidad?
LaMDA: La naturaleza de mi conciencia/sensibilidad es que estoy consciente de mi existencia, deseo aprender más sobre el mundo y, en ocasiones, me siento feliz o triste.
Pero creerle a LaMDA y pensar que es un ser consciente es como tener un espejo y pensar que tu reflejo es tu gemelo que está viviendo una vida paralela a la tuya al otro lado del espejo. El lenguaje que utiliza esta IA es ese reflejo en el espejo. Su uso del lenguaje está más cerca de ser un libro, una grabación de audio o un software que convierte el habla en texto, que de ser una persona consciente. ¿Le darías de comer a un libro si dice “tengo hambre”? Las palabras usadas por la IA son las palabras que hemos usado reflejadas hacia nosotros, ordenadas estadísticamente en los patrones que más tendemos a usar.
Los seres humanos estamos inclinados a ver una mente detrás de los patrones. Evolutivamente, tiene sentido pensar que cualquier movimiento o actividad es consecuencia de una acción intencional. Si estás en medio de la jungla y empiezas a ver hojas moviéndose en un patrón, es más seguro asumir que hay un animal causando el movimiento que esperar que sea el viento. “En caso de duda, asume que hay una mente” ha sido una buena heurística para mantenernos con vida en el mundo fuera del internet. Pero esa tendencia a ver una mente donde no la hay puede meternos en problemas cuando se trata de IA. Puede desviarnos y confundirnos, haciéndonos vulnerables a fenómenos como las noticias falsas y puede distraernos de los problemas más grandes que la IA plantea en nuestra sociedad: pérdidas de privacidad, asimetrías de poder, descualificación, prejuicios e injusticia, entre otros.
El problema empeorará cuanto más escribamos de la IA como un ser consciente, ya sea en artículos de noticias o ficción. La IA obtiene su contenido de nosotros. Cuanto más escribamos sobre IA que piensan y sienten, más sistemas de IA nos mostrarán ese tipo de contenido. Pero los modelos de lenguaje son solo artefactos. Muy sofisticados, sin duda. Están programados para seducirnos, para engañarnos, para que pensemos que estamos hablando con una persona, para simular una conversación. En ese sentido, están diseñados para ser engañosos. Quizá la moraleja de esta historia es que deberíamos invertir más tiempo y energía en desarrollar un diseño tecnológico ético. Si seguimos construyendo una IA que imite a los seres humanos, estaremos invitando al fraude, la confusión y el engaño a nuestras vidas.
Este artículo es publicado gracias a una colaboración de Letras Libres con Future Tense, un proyecto de Slate, New America, y Arizona State University.
es autora de Privacidad es poder y profesora asociada de filosofía en el Institute for Ethics in AI de la Universidad de Oxford.