Imagen: Wikimedia Commons

¿Cuáles son las limitaciones de los robots de IA?

A partir de un relato de ciencia ficción que imagina un futuro en el que los robots de IA tienen capacidades superiores a las humanas, este ensayo analiza la situación actual de este tipo de tecnologías a nuestro alrededor.
AÑADIR A FAVORITOS
ClosePlease loginn

Este ensayo forma parte de Future Tense Fiction, un conjunto de cuentos publicados por Future Tense y el Center for Science and the Imagination de Arizona State University sobre cómo la tecnología y la ciencia cambiarán nuestras vidas. Durante 2018, Future Tense Fiction publicará mensualmente un cuento y un ensayo en el que se analizan los temas de ese cuento. Este mes, Janelle Shea, programadora de IA, respondió al cuento “When Robot and Crow Saved East St. Louis, de Annalee Newitz. Lee el cuento (en inglés) en el sitio de Slate.

***

 

En 2018, el envío del robot de inteligencia artificial CIMON a la Estación Espacial Internacional dio lugar a una serie de sucesos extraños. Se suponía que CIMON, una esfera flotante con rostro digital capaz de mostrar algunas expresiones faciales simples, ayudaría a los astronautas a realizar procedimientos mostrando información y respondiendo preguntas. Luego de ponerlo a prueba, el astronauta Alexander Gerst quedó impresionado con la facilidad de maniobra de CIMON, no así con sus habilidades sociales. Por ejemplo, había sido programado para que supiera cuál era la canción favorita de Gerst, pero fue necesario ordenarle varias veces antes de que dejara de reproducirla. “Cantemos al compás de estos grandes éxitos”, interrumpía mientras Gerst batallaba para que grabara un video. Poco después pareció tomar a mal los comentarios de Gerst sobre su habilidad para flotar. “No seas tan malo, por favor”, le dijo. “¿No te gusta estar aquí conmigo?”. Más adelante, el sistema de reconocimiento de estados de ánimo de CIMON identificó erroneamente que Gerst estaba «hambriento y enojado». “Ah, claro, ya te entiendo. Puedo escuchar cómo ruge tu estómago. ¿Qué tal si vemos cuándo es hora de comer?” No mucho tiempo después CIMON fue guardado en un cajón.

En el cuento de Annalee Newitz “When Robot and Crow Saved East St. Louis”, hay otro pequeño robot redondo llamado Robot. Al igual que CIMON, su labor era interactuar con personas para detectar síntomas de enfermedades y evitar que las epidemias se propaguen. A diferencia de CIMON, Robot era tan encantador que daban ganas de darle unas palmaditas en su cabecita de robot. “Hola”— decía— “¡Soy el amigo del vecindario que lucha contra la gripe! Por favor, tose sobre este pañuelo y sostenlo frente al escáner”. Simpático, sonreía y saludaba con su pequeño bracito.

Un día, al igual que CIMON, Robot llega al límite de su programación: se aleja de las comunidades cerradas y pequeñas mansiones y llega a vecindarios menos aburguesados al otro lado del río. Allí encuentra algunos humanos que hablan idiomas y dialectos para los que no está entrenado y otros que viven en edificios y carpas que no están registrados en ninguna de sus bases de datos. No está preparado para trabajar en esos vecindarios.

Robot debería haber fracasado. El sesgo algorítmico ha sido la ruina una gran cantidad de innovaciones de IA, desde el software de reconocimiento facial que tiene problemas para reconocer a personas de tez oscura y el de voz que no entiende algunas voces, hasta el software que perpetúa o intensifica prejuicios en los comportamientos humanos que imita.

Pero, entonces, en el cuento sucede algo mágico: Robot reconoce que hay algo que está mal y llama a su programadora para consultar con ella. Y, cuando ella le dice que la solución es aprender nuevos dialectos y hábitos humanos, Robot entiende lo que ella quiere que haga, descarga el código que ella le envía y comienza a recopilar datos que lo ayudarán a solucionar las falencias de los datos de aprendizaje.

Para un programador de IA eso sería un escenario ideal. Hoy en día, con la inteligencia artificial disponible, el programador con suerte recibiría un código de error. Sin embargo, lo más probable es que un robot en esa situación seguiría utilizando datos incorrectos y operando mal sin tener percatarse de ello y responsabilizando a los usuarios. Incapaz de navegar edificios desconocidos, un Robot en la vida real se habría perdido dentro de un closet, cual aspiradora automática voladora, obstinada en sus rutinas conversacionales preprogramadas pidiéndole al dibujo de una cara estampada en una playera: “por favor, tosa sobre un pañuelo”.

El problema es que la IA de hoy—y las que prevemos en un futuro cercano— tienen un alcance muy limitado. Llamadas inteligencias artificiales “limitadas” o ANI (por sus siglas en inglés), pueden desempeñar tareas simples, pero no entienden el mundo circundante ni lo que realmente están haciendo. La IA de nuestra ciencia ficción es lo que se conoce como AGI (inteligencia artificial general), cuyo nivel de percepción del mundo es igual o mayor al de un ser humano. Al principio, parece que Robot es una ANI: dice lo que está programado para decir y tiene una “preferencia” por la ruta inicial que le ha sido designada, simplemente debido a su sistema interno de coordenadas. Pero todo eso cambia cuando Robot, como el icónico extraterrestre, llama a casa. Cuando la programadora de IA ve que Robot percibe las falencias de los datos de aprendizaje, comprende conceptos abstractos y detecta idiomas en el momento, se da cuenta de que se trata de una AGI y, por lo tanto, un elemento tan mágico como el espejo que habla en un cuento de hadas.

La historia ya tiene los elementos de un cuento de hadas: incluye animales que hablan (los cuervos tienen una participación encantadora) y su título incluso se parece a cuento o mito tradicional.

Y, al igual que en cualquier buen cuento de hadas, hay suficientes elementos verosímiles como para mantener la ilusión de realidad. La ANI existente puede detectar idiomas y costumbres sociales mediante la observación: ese es uno de los principales atractivos del aprendizaje automático, la clase de algoritmo que permite que una IA aprenda a partir de ejemplos en lugar de que se la programe explícitamente.

Por ejemplo, un algoritmo de vector-palabra recopilará un corpus gigante de textos como reseñas de Amazon o artículos periodísticos y aprenderá a partir del contexto qué palabras son similares. Si se representan en un espacio 3D, se puede navegar por esos significados como en una galaxia, pasando cúmulos de nombres de ciudades o términos deportivos, o navegando tranquilamente desde palabras sobre política hasta palabras sobre delitos. Al usar esas relaciones, los algoritmos de vector-palabra saben que “amooooooor”, “amorrrrr” y “amoramoramoramor” tienen significados similares, pero que “ammor” tiene un vínculo más lejano.

Otros algoritmos lingüísticos también pueden aprender a partir de ejemplos. Si se les proporciona una cantidad suficiente de ejemplos de cómo se tradujeron determinadas frases en determinados contextos, los algoritmos de traducción como los de Google Translate son capaces de generar un párrafo más o menos legible en otro idioma. Se utilizaron métodos similares para entrenar algoritmos para que detecten correo basura, distingan potenciales nombres de bandas de rock de posibles nombres de “Mi pequeño pony” o determinen si una reseña elogia un producto o lo destruye. Los algoritmos incluso pueden generar texto nuevo por su cuenta imitando reseñas de productos, recetas de cocina,  fanfiction de Harry Potter y más.

Pero como cualquiera que haya interactuado con Siri sabe, la IA de hoy en día no entiende mucho de idiomas. Apenas los sacas de sus zonas de confort, estas tecnologías muestran su naturaleza limitada: no hay más que pedirle a Siri que reformule una oración o mencione tres cosas más grandes que una langosta. Si se le diera una cantidad suficiente de ejemplos, un algoritmo como Robot podría utilizar aprendizaje automático y aprender a entender indicaciones verbales para llegar a una dirección específica. Pero probablemente excedería sus capacidades si el humano le dijera que volara a través de las paredes sin terminar del piso superior, a menos que “volar a través de paredes sin terminar” hubiera aparecido una gran cantidad de veces entre los datos de aprendizaje inicial. E incluso en ese caso, si “volar a través de paredes sin terminar” fuera lo suficientemente complejo, una ANI podría no ser capaz de aprender esa habilidad de manera fiable. De esta forma, cuando Robot transita diseños edilicios sumamente variados como mansiones, obras en construcción o carpas, hace gala de sus mágicas habilidades de AGI.

Robot también aprendió nuevos idiomas a partir de conversaciones breves en lugar de analizar grandes conjuntos de datos, otro indicio de que sus habilidades exceden por mucho las habilidades disponibles actualmente. Los algoritmos de vector-palabra y de traducción cumplen las funciones que más se acercan a lo que Robot necesita para aprender un idioma, pero en general requieren enormes cantidades de datos, por ejemplo, toda la biblioteca de Wikipedia. Sin embargo, para algunos idiomas, incluidos algunos que hablan millones de personas, no hay muchos ejemplos de textos traducidos.

Cuando los conjuntos de datos para el aprendizaje son más reducidos, empiezan a surgir las cosas raras. Por ejemplo, cuando los usuarios de Reddit y otros empezaron a usar Google Translate para traducir hilos de palabras en inglés sin sentido a otros idiomas, como maorí o somalí, descubrieron que la IA producía extrañas profecías de tinte religioso. ¿Y cómo se explican esos resultados? En esos idiomas, es posible que los textos religiosos —como la Biblia— ocupen un lugar prominente en el reducido corpus de obras traducidas con las que se entrenó el algoritmo. Es probable que, ante la duda, la IA haya optado por recurrir a las pocas oraciones que conocía. Durante las primeras etapas de su aprendizaje, seguramente Robot hablaba muy extraño.

También cabe destacar la capacidad de Robot para captar matices. Hay equipos de respuesta de la Agencia de Proyectos de Investigación Avanzados de Defensa (DARPA) que trabajan para desarrollar herramientas que puedan realizar traducciones básicas a partir de fuentes disponibles en las redes sociales. No se anticipa que estas herramientas sean capaces de detectar matices, sino que simplemente ofrezcan asistencia de emergencia, sin que consigan, por ejemplo, hacer juegos de palabras. En el cuento, Robot tiene incluso menos datos: solamente unas cuantas conversaciones que oyó. Sin embargo, tiene éxito, pues, porque se trata de un robot mágico.

Otra dificultad que superó Robot fue aprender a partir del lenguaje hablado y no del escrito. Para entender a alguien que señala un objeto y dice “esta es una oveja”, primero uno tiene que poder reconocer, sin ningún lugar a dudas, a una oveja. Incluso los mejores algoritmos de reconocimiento de imágenes se equivocan con imágenes que a los seres humanos les parecen obvias. Conjeturan en función de todo lo que vieron durante la etapa de aprendizaje, pero no les va tan bien cuando tienen que identificar imágenes que se desvían de los datos iniciales que recibieron. De esta forma, una familia de osos en un prado queda clasificada como un rebaño de vacas; una oveja en una cocina, como un perro; unas cabras en un árbol, como jirafas o aves. Cabe aclarar que, incluso si supiéramos que está pasando, hay lugar para ambigüedades. Si una persona dice una palabra, y después se gira y da algunos pasos en otra dirección, ¿está representando la acción “caminar”, “partir” o “irse”? Incluso a los humanos les resulta difícil ese nivel de adquisición del lenguaje. Las ANI actuales (y las del futuro cercano) no entienden el mundo lo suficiente como para distinguir esas sutilezas.

Robot es una mezcla entre un espejo mágico que habla y un bufón de un cuento de hadas: inexperto, pero puro de corazón y con pocas probabilidades de tener éxito. En este cuento de hadas, Robot trabaja para el Centro para el Control de Enfermedades (CDC) de Estados Unidos, pero una tecnología de ese nivel sería revolucionaria para trabajadores de respuesta humanitaria, para el equipo de la Estación Espacial Internacional, para emprendimientos de envío de comida y en muchas otras áreas más. Sería maravilloso tener un robot que pudiera comprender instrucciones, internalizar una meta como “ayudar a los enfermos” y pedir aclaraciones ante un problema. Y ni hablemos de la habilidad definitivamente genial de Robot de descifrar el lenguaje de los cuervos; conozco a unos cuantos investigadores a los que les gustaría tener a Robot como parte de su equipo.

Asimismo, tener una mente bien intencionada detrás de los algoritmos nos evitaría gran parte del daño que causamos sin saberlo: algoritmos que copian nuestros prejuicios, que recomiendan artículos y videos con ideologías extremistas o que censuran las voces de todo aquel que no sea blanco, que se identifique como no binario o no heterosexual y/o que tenga una discapacidad. Pero lo que está detrás de nuestros algoritmos en la vida real no se asemeja tanto a la AGI de Robot, sino que es más similar a la ANI de una aspiradora automática. Por ahora, no podemos confiar en que tendremos a una multitud de Robots simpáticos y amigables que podrán ver más allá de los datos de aprendizaje sesgados que recibieron y avisarnos amablemente cuando descubran un problema (tal como lo demuestra CIMON, ¡ni siquiera podemos confiar en que serán amables!).

De hecho, deberíamos moderar nuestras expectativas y no esperar que los algoritmos se comporten como entretenidos Robots de cuentos de hadas.

La clave está en aspirar a un futuro de Robots, sin dejar de prepararnos para lo peor: un mundo repleto de CIMON.

 

+ posts


    ×  

    Selecciona el país o región donde quieres recibir tu revista: