De la abstracción a la vida

AÑADIR A FAVORITOS

La fecha oficial del nacimiento de la inteligencia artificial es el verano de 1956, cuando John McCarthy propuso el término “inteligencia artificial” para referirse a todos los proyectos que intentaban reproducir las conductas inteligentes. Ahora bien, aunque el nacimiento tuvo lugar en el 56, la concepción ocurrió en el 48, cuando un grupo de investigadores se reunieron en el Cambridge Institute of Technology, Estados Unidos, para celebrar una conferencia que ha pasado a la historia como el Simposio Hixon. Los asistentes provenían de campos de estudio muy diferentes, pero todos tenían el funcionamiento de la conducta inteligente como objeto de su trabajo.
     El primer conferenciante fue el físico-matemático John von Neumann, que dibujó en su conferencia la comparación entre los ordenadores electrónicos y el cerebro, comparación de la cual todavía no podemos deshacernos. El tercer conferenciante fue el psicólogo Karl Lashley, quien advirtió que este parecido era inexacto y sostuvo que el ordenador es una máquina digital, mientras que el cerebro es analógico. El segundo conferenciante, uno de los primeros teóricos computacionales, Warren McCulloch, se alió con Lashley y propuso una hipótesis sobre cómo el cerebro procesa la información en lo que vino a llamar “aparatos lógicos”.
     Las diferencias entre el modelo de Von Neumann, que denominaremos “formalista”, y el de Lashley y McCulloch, que bautizaremos “biologista”, marcaron el inicio de un cisma que separó en dos grandes escuelas a casi todas las ciencias que han intentado explicar la conducta inteligente. Los formalistas están convencidos de que los fenómenos neurobiológicos son irrelevantes para la comprensión de las conductas inteligentes, pues suponen que la inteligencia es una propiedad abstracta de ciertos sistemas. Los biologistas, en cambio, creen que saber cómo funciona el cerebro es imprescindible para entender la conducta inteligente.
     En este sentido, la inteligencia artificial actual utiliza dos estrategias para tratar de reproducir una capacidad inteligente. Una consiste en analizar dicha capacidad e intentar construir un sistema que aplique tal análisis. La segunda estrategia es intentar explicar una capacidad inteligente como una función adaptativa, es decir, entendiendo la capacidad como parte de un sistema biológico que ha evolucionado y se ha adaptado a un entorno determinado. Los partidarios de esta opción crean modelos, o sistemas reales, con unos mecanismos de base que permiten a los sistemas buscar por sí mismos las soluciones a sus problemas.
     Los antecedentes
     El instrumento que permitió el inicio de la disección formalista de la conducta inteligente fueron los trabajos de matemática computacional de Boole, Whitehead y Russell. Sus ideas permitieron el avance, durante los años treinta y cuarenta, de la matemática computacional, de la que Alan Turing es el representante más significativo. Turing publicó hacia la mitad de los treinta la prueba que permitía concebir la existencia de una máquina simple capaz de llevar a cabo cualquier tipo de cálculo. Esto supuso la primera concepción de lo que ahora denominamos ordenador. Sin embargo, faltaba un elemento esencial para el nacimiento de la formalización de la conducta inteligente: la teoría de la información. Fue un brillante ingeniero electrónico, Claude Shannon, quien en 1938 propuso que las operaciones básicas del pensamiento podían expresarse simplemente a través de dos estados básicos de los interruptores electromagnéticos, el bit. Esta es la idea clave en la teoría de la información. Por primera vez, podía pensarse en la información y, por extensión, en reproducir los procesos de pensamiento fuera de un cerebro.
     La necesidad de conseguir, durante la Segunda Guerra Mundial, la más completa superioridad posible sobre el enemigo, no sólo en el campo de batalla sino también en cualquier otro, como el del espionaje, permitió inversiones multimillonarias en el desarrollo de máquinas inteligentes formalistas. Von Neumann construyó los primeros aparatos en Estados Unidos, Turing fabricó una máquina descifradora en Gran Bretaña y Norbert Wiener empezó a imaginar ordenadores capaces de controlar el tiro de armas de artillería. El final de la guerra detuvo estos proyectos en todo el mundo excepto en los Estados Unidos y en la urss.
     ¿Qué resultados ha dado la perspectiva formalista en el campo de la reproducción de la conducta inteligente? Los primeros años se dedicaron a la conducta inteligente de tipo general. Fueron años invertidos en lo que vino a llamarse “resolución de problemas”, que debía generar modelos generales de inteligencia. Los grandes representantes de esta tendencia fueron Allen Newell y Herbert Simon, que consiguieron éxitos parciales. Sin embargo, no se llegó a ningún modelo de inteligencia general. En los 70 y los 80 se optó por modelos de conducta inteligente aplicada o “sistemas expertos”, es decir, sistemas que son inteligentes sólo en un dominio determinado. Estos proyectos tuvieron mucho más éxito, pero éste se consiguió gracias a utilizar la gran capacidad de memoria de los ordenadores en lugar de reglas generales de inteligencia.
     ¿Qué conclusión puede sacarse de esta breve historia? Los sistemas formalistas tienen mucha dificultad en comprender, abstraer, hacer planes y, sobre todo, aprender. El caso es que para todas aquellas actividades que encontramos difíciles, como la fiabilidad en el manejo de datos o las operaciones de cálculo con números complejos, los ordenadores formalistas se han revelado muy útiles. Sin embargo, para aquellas actividades que encontramos sencillas, como la percepción de objetos, la comprensión del habla o identificar la relevancia de un suceso, los ordenadores formalistas se han mostrado muy poco inteligentes.
     ¿Por qué ha fracasado la perspectiva formalista en la tarea de reproducir la inteligencia humana? El problema de la posición formalista, conocido como frame problem o “problema del sentido común”, es que para que un sistema formalista identifique una información relevante, o sepa elegir una conducta apropiada, necesita más información de la que nunca podrá tener. Por ejemplo, a un humano no hay que explicarle que una pistola de verdad no es un regalo adecuado para un niño mientras que una de juguete puede serlo, pero a un ordenador hay que insertarle esta información de manera explícita. El problema es que por mucho que reduzcamos la información relevante de un problema determinado, siempre necesitaremos mucha información.
     Quizá lo más curioso de este problema es que, en muchos casos, se trata de situaciones que los humanos no han tenido por qué considerar explícitamente, ni haber adquirido la información con anterioridad. Es muy probable que no hayamos pensado nunca que todos los Papas de la Iglesia son solteros y tienen próstata, pero no nos es necesario haber pensado en ello para saber que es verdad. En cambio, un ordenador formalista necesitará valorar cada afirmación por separado, y posteriormente la conjunción. De hecho, cuando un ser humano sabe más de algo, más fácil y rápidamente encuentra la solución relevante. En cambio, cuanto más sabe un ordenador (cuanto mayor es su base de datos) más tarda en encontrar una solución. En resumen, el problema es que el sentido común es muy difícil de formalizar.
     La revolución biologista
     A partir de estas dificultades, los representantes de la posición biologista propusieron que nada de lo que cuenta como inteligencia humana podrá estipularse únicamente de manera formalista. El punto de partida de esta posición es recordar la importancia de la biología para la concepción de la inteligencia: los sistemas inteligentes necesitan estar sometidos a las mismas restricciones que los seres vivos.
     El núcleo de la inteligencia artificial biologista es considerar los sistemas de inteligencia (biológicos o artificiales) como sistemas vivos, que intentan sobrevivir y adaptarse a sus entornos. Según la variante más radical de este acercamiento, la vida es completamente equivalente a la inteligencia: la inteligencia de un sistema vivo consistiría en mantenerse vivo y reproducirse. Una bacteria vive en un entorno líquido donde el alimento —la glucosa— está habitualmente presente. El nivel de inteligencia necesario consiste simplemente en ser capaz de moverse regularmente hacia grandes concentraciones de alimento, lo cual supone tener sensores que midan el nivel de glucosa y un sistema motor para trasladarse hacia ella. Ahora bien, si nos acercamos a animales más complejos, como un mamífero, su requerimiento de inteligencia aumenta en la misma medida que aumenta la complejidad que representa la supervivencia para esta especie. Un mamífero no respira “glucosa”, necesita buscarla en su entorno, y debe hacerlo en un entorno rico en elementos no nutritivos. Por lo tanto, necesita ser capaz de reconocer su alimentación y diferenciarla de otros elementos no relevantes, lo que supone tener una capacidad de categorización y, por lo tanto, de inteligencia muy superior a la de la bacteria. La inteligencia sería entonces una cierta habilidad de vivir, de adaptarse al medio, en lugar de estar relacionada con la cantidad de información de la que somos propietarios.
     El concepto de vida y de adaptación es la clave que llevará al desarrollo de una nueva manera de entender la inteligencia artificial. En efecto, los límites de la inteligencia artificial formalista y la recuperación de la teoría de la evolución impulsaron a ciertos investigadores a sacar el polvo de muchas de las teorías que propusieron los primeros biologistas, como McCulloch, y aplicarlas en el diseño de máquinas inteligentes.
     Este impulso ha dado lugar a diferentes líneas de investigación que han recibido muchos nombres, de los cuales nos quedamos con el de “inteligencia artificial biologista”.
     Las diferencias
     Los puntos clave que marcan el paso de la inteligencia artificial formalista a la biologista son los siguientes:
      
     1. De saber mucho sobre poco, a saber poco sobre mucho. La inteligencia artificial formalista ha centrado su actividad en sistemas que muestran capacidades inteligentes aisladas y muy sofisticadas, como jugar al ajedrez. Estos sistemas aportan “profundidad” en lugar de “amplitud”. Por contra, la perspectiva biologista busca capacidades múltiples e integradas. Normalmente estas capacidades son relativamente sencillas: caminar, orientarse, recoger objetos.
     2. De mundos cerrados a mundos abiertos. La inteligencia artificial formalista ha desarrollado sistemas “cerrados” que tienen una interacción mediada con el mundo exterior y “viven” en un ámbito virtual en el que son expertos. Su conexión con el entorno está muy controlada por un operador humano. Éste reconoce el problema y lo describe al sistema con un lenguaje simbólico que el ordenador entiende. El sistema regresa como output una solución con el mismo lenguaje que ha de ser llevado a la práctica por el mismo operador humano. En cambio, los sistemas biologistas diseñan sus sistemas con el fin de que se desarrollen en un entorno abierto. Un agente biologista tiene que estar situado en su entorno, directamente conectado con el problema real a través de sus sensores. Tiene que poder actuar autónomamente y estar sometido a todo tipo de sucesos imprevistos.
     3. De la serialidad a la simultaneidad. La mayoría de los sistemas formalistas trabajan un problema a la vez. Además, los sistemas no tienen una restricción temporal para dar la solución, tienen un tiempo ilimitado. Un agente biologista, por contra, tiene que trabajar diferentes problemas al mismo tiempo, que cambian rápido y necesitan de un análisis eficaz.
     4. Del conocimiento preestablecido al emergente. La inteligencia artificial formalista trabaja con sistemas cuyo conocimiento está preestablecido por los programadores. No tienen que adaptarse a nuevas situaciones, mientras que los sistemas biologistas cuentan con el hecho de que su conocimiento se adquiera según las situaciones en que se encuentran y se adapte a ellas.
     5. Del saber explícito al implícito. El acercamiento formalista define la inteligencia en términos de conocimiento explícito: un sistema sabe más cuantos más datos pueda manipular. En cambio, el acercamiento biologista define la inteligencia en términos de conducta observada y de autonomía. Un sistema es capaz de adaptarse y de aprender si cambia su conducta con el objetivo de continuar optimizando su inteligencia, a pesar de que cambie su entorno.
     6. Agentes autónomos adaptativos. ¿Cómo han transformado los investigadores estas diferencias en modelos concretos de inteligencia biologista? ¿Cómo han llevado a la práctica sus tesis? En esencia, fijándose en una propiedad esencial de la vida: la autonomía de los seres vivos. Los sistemas vivos son sistemas que se mantienen por sí mismos. Sólo si aprenden a vivir por sí mismos, gracias a procesos y mecanismos simples, serán capaces de mostrar conductas complejas e inteligentes. Tienen que ser “egoístas” en el sentido de que sus mecanismos internos y su conducta estén motivados hacia la propia supervivencia. Por lo tanto, los sistemas artificiales biologistas deben tener la misma voluntad de supervivencia que los biológicos, y esta motivación tiene que ser la fuerza más importante para desarrollar inteligencia.

En consecuencia, el eje central que reúne todas las diferencias entre las dos posiciones es el concepto de “agente autónomo adaptativo” (AAA). Por “agente” se entiende un sistema que intenta cumplir un conjunto de objetivos en un entorno complejo y dinámico. Un agente está situado en un entorno: puede recibir información sensorial del entorno a través de sus sensores y actuar sobre el entorno utilizando sus elementos motores. Los objetivos de un agente pueden tomar muchas formas: pueden ser “objetivos finales”, como ganar al ajedrez, o pueden ser estados particulares a los que intenta llegar, como estados internos que cumplan un deseo, digamos, “satisfacer el deseo de cargar energía”.
     Podremos hablar de agente “autónomo” cuando el agente pueda decidir por sí mismo cómo relacionar la información que le dan sus sentidos con sus programas motores, de manera que lleve a buen fin sus objetivos sin consultar con ningún operador humano. Finalmente, un agente es “adaptativo” si puede mejorar su situación a lo largo del tiempo, es decir, si mejora en la consecución de sus objetivos gracias a la experiencia.
     A partir de este concepto básico, la posición biologista ha establecido, de acuerdo con todas las investigaciones y todos los desarrollos robóticos, una serie de principios necesarios que el diseño de un AAA biologista debe cumplir. Son los siguientes:
      
     1. Los sistemas de los AAA tienen que estar integrados. Los AAA tienen que estar diseñados como sistemas integrados, es decir, sistemas que coordinen las funciones de todos sus componentes para alcanzar sus objetivos. Esta propiedad se contrapone a la propiedad formalista de construir sistemas modulares, esto es, sistemas que descomponen sus funciones en diferentes tareas independientes que llevan a cabo distintos subsistemas o módulos. La posición biologista considera que todos los subsistemas de un AAA tienen que condicionar su actividad a la consecución de los objetivos del AAA y a la actividad de los otros subsistemas. Tiene que haber un diálogo, incluso una negociación entre los diferentes subsistemas. Los componentes de un AAA deben formar parte de un todo funcional integrado.
     2. Un AAA tiene que estar situado en el mundo. Un agente autónomo forma parte de un entorno, es un agente-en-un-entorno. Para que un AAA consiga desarrollarse como un sistema inteligente tiene que crearse un “ecosistema” al que el AAA se integre y donde sobreviva y se adapte. Además, el entorno tiene que plantear retos y problemas al AAA, como buscar fuentes de energía para “alimentarse”. Finalmente, el diseño específico de un AAA debe tener en cuenta qué tipo de entorno tendrá, porque según el entorno en que habite un agente deberá tener diseños muy diferentes. Por ejemplo, si el entorno es siempre accesible perceptivamente a un agente, entonces aquél puede convertirse en parte del conocimiento del agente sobre su mundo; no necesita reproducir todo lo que forma parte de su entorno, porque siempre estará ahí.
     3. Un AAA debe desarrollarse. Los seres humanos no nacemos con sistemas sensoriales, motores o de razonamiento completamente desarrollados. Éstos llegan a la madurez de manera gradual, mediante procesos que les permiten ser cada vez más eficaces y mostrar conductas más complejas a lo largo del tiempo. Una conducta de experto tiene en su pasado una historia de capacidades menos desarrolladas que han ido sofisticándose con el tiempo. En este sentido, la construcción de sistemas que se desarrollan facilita el aprendizaje de las capacidades cada vez más complejas y que requieren de un largo proceso hasta la excelencia en una actividad. Por ejemplo, los niños nacen con una agudeza visual muy baja que condiciona el tipo de estímulos visuales que pueden procesar. Esto permite que el cerebro pueda trabajar primero estímulos visuales sencillos y, más tarde, a medida que el sistema visual gana en agudeza, pueda procesar estímulos más complejos. En otras palabras, el desarrollo disminuye la dificultad del aprendizaje porque permite que se produzca de manera gradual.
     4. Los AAA son agentes sociales. Los niños son organismos biológicos extremadamente dependientes de sus padres y familiares. No sólo los necesitan para satisfacer sus necesidades básicas, sino también para desarrollar sus capacidades cognitivas. Esta dependencia del contacto social está tan integrada en nuestra especie que es difícil imaginar un ser humano que pueda desarrollarse sin estar socialmente integrado. En consecuencia, convertir los AAA en seres sociales proporciona un medio natural para permitir el desarrollo más rápido y eficaz de las capacidades inteligentes. Si consideramos la cuestión del aprendizaje de palabras, entonces el beneficio de convertir a los AAA en seres sociales parece obvia: la comunidad enseña, condiciona y confirma el significado que un AAA puede haber asignado a una palabra. Por todo ello, los AAA deben formar parte de un conjunto de otros agentes con los cuales interaccionan, y han de establecerse mecanismos de interacción eficaces con sus congéneres.
     Primeros éxitos biologistas: AIBO
     Gracias a todas estas condiciones de diseño, la inteligencia artificial biologista ha empezado a conseguir éxitos en la consecución de sistemas inteligentes. Hay un investigador que está en la vanguardia de esta comprensión completamente nueva de las capacidades inteligentes, en general, y de las lingüísticas, en particular: Luc Steels.
     Steels es director del Laboratorio de Sony de Ciencia Computacional de París y profesor de informática en la Universidad de Bruselas. Pese a llevar muchos años trabajando en el campo de la robótica y del origen del lenguaje, su nombre adquirió fama hace apenas un año por haber participado en la creación de AIBO, un perrito robot del que se vendieron en Japón decenas de miles de ejemplares en dos meses. AIBO es una especie de tamagochi del siglo XXI, un perrito que ladra, se mueve autónomamente, muestra emociones e incluso es capaz de desarrollar conductas individuales que lo diferencian de los demás AIBOs.
     Sin embargo, entre la comunidad de científicos cognitivos Steels es conocido como uno de los investigadores que está más cerca de responder, mediante el acercamiento biologista, a varias de las preguntas más importantes que se haya formulado la humanidad desde que es consciente de ser una especie lingüística: ¿Qué es un lenguaje? ¿Cómo adquieren las palabras su significado? ¿Cuáles son las capacidades cognitivas imprescindibles para que una especie adquiera la capacidad lingüística? En sus últimos experimentos, Steels ha conseguido que varios robots autónomos se puedan comunicar entre sí. Los programas emprenden juegos lingüísticos entre ellos que les llevan a crear y desarrollar protolenguajes con un léxico y unas conceptualizaciones primitivas.
     En resumen, la nueva inteligencia artificial parece haber culminado el viaje de la comprensión y reproducción de las conductas inteligentes: de la abstracción formal a la adaptación al medio. Los próximos años serán cruciales para ver la robustez de sus planteamientos. ~