“El transhumanismo es la nueva ideología totalitaria”. Entrevista con José María Lassalle

¿Cómo desarrollar una inteligencia artificial potencialmente moral? ¿Dónde están los límites para su diseño? El escritor y académico español habla sobre los temas que desarrolla en su libro “Civilización artificial”.
AÑADIR A FAVORITOS
Please login to bookmark Close

La “inteligencia artificial” no fue tema de ninguna de las mesas del Encuentro La libertad de Vuelta, organizado por Letras Libres en noviembre pasado, pero fue mencionada en varias ocasiones, como suele ocurrir en casi cualquier conversación de nuestro tiempo. José María Lassalle (Santander, 1966), uno de los participantes del encuentro, ha escrito un libro al respecto, Civilización artificial (Arpa, 2024). Escritor, académico, anteriormente político y funcionario, ha reflexionado sobre el asunto desde diversas perspectivas, tanto intelectuales como de política pública. Lo entrevisté en la biblioteca de El Colegio Nacional. Antes de comenzar la conversación, me dijo que intentaría ser “conciso, lacónico, como diría Saavedra Fajardo”. Afortunadamente no lo fue, porque el debate sobre la inteligencia artificial requiere mucho más que un tratamiento anecdótico y amerita contribuciones desde campos como la filosofía política.

***

Encuentro interesante el panorama actual. Hay usuarios de a pie que se están beneficiando de la inteligencia artificial. Al lado de estos practicantes, hay entusiastas desde las ideas. Pienso en cómo Yuval Noah Harari expresa que la inteligencia artificial no sería una herramienta, sino un agente, dando por hecho su autonomía. ¿Cuál es tu posición ante estos distintos tipos de entusiasmo por la inteligencia artificial?

Yo interpreto de una manera crítica el diseño actual de la inteligencia artificial porque se basa en el desarrollo de una voluntad de poder sin reglas, que trata de maximizar la utilidad de ese poder y con una clara lógica de sustitución de la capacidad humana. Ese el presupuesto sobre el que, en estos momentos, se desarrolla y se diseña la inteligencia artificial en los dos países que lideran la hegemonía tecnológica sobre ella, China y Estados Unidos. La inteligencia artificial ha venido para quedarse, pero necesitamos afrontar un nuevo modelo de la inteligencia artificial. No podemos seguir trabajando en una inteligencia artificial para la utilidad, porque la utilidad no es un propósito. Tenemos que trabajar una inteligencia artificial para la vida y para que el ser humano sea capaz de desarrollar sus potencialidades personales. Hay que diseñar la inteligencia artificial como una criatura que preste asistencia al ser humano, para que crezca como persona. Y para eso hace falta diseñar la arquitectura computacional de la inteligencia artificial conforme a ese propósito.

Europa debería liderar ese proceso, sumando, creo, al mundo latinoamericano, a civilizaciones como la árabe o a la propia tradición judeocristiana que acompaña una parte muy importante del pensamiento occidental. Si la inteligencia artificial, que es como la he definido en mi libro Civilización artificial, es algo que quiere ser alguien, consciente, pero sin conciencia, el ser humano tiene que trabajar la conciencia que complemente y agregue valor a la conciencia de la inteligencia artificial desde un discurso humanista y no transhumanista. Lo segundo nos haría sustituibles y cancelables, que es lo que probablemente buscan los líderes de las grandes corporaciones tecnológicas que lideran la inteligencia artificial en Estados Unidos y en China. Lo primero sería el propósito y el sentido que podría tener una herramienta poderosísima que nos coloca ante una experiencia de crear desde la nada, algo muy parecido a lo que probablemente hizo Dios cuando creó el universo.

Creo que estamos ante un dilema que ya ha planteado la literatura, obviamente en Frankenstein y antes en mitos clásicos: el enfrentamiento entre los creadores y su obra, cuando su creación se escapa de sus manos. ¿Cómo conseguir, entonces, que predomine el humanismo y no el transhumanismo?

A través del diseño de los algoritmos que soporte la arquitectura computacional. Es decir, si trabajamos a favor de una inteligencia artificial que crezca en su autonomía –en la toma de decisiones– y por lo tanto le damos herramientas para crear como agente, tenemos que enfrentarnos al riesgo de que puede llegar a ser consciente. En ese proceso de acompañamiento hacia la conciencia, la inteligencia artificial debería desarrollarse dentro de un catálogo de reglas morales que le dejen absolutamente claro –algorítmicamente hablando– su subordinación a la persona humana y su instrumentalidad. Eso significa trabajar la inteligencia artificial desde las reglas morales. Es decir, no puede la inteligencia artificial trabajar solo buscando la maximización de su poder, porque eso podrá hacerle llegar a la conciencia, pero como un Frankenstein: sin conciencia. Hay que trabajar la inteligencia artificial como una inteligencia potencialmente moral. Y esa es una responsabilidad humana que tiene que estar en el diseño de la inteligencia artificial y, sobre todo, definiendo determinados ámbitos que, a lo mejor, deben ser tabúes y que no pueden ser objeto de trabajo por parte de ella.

Cuando Sloterdijk y Habermas debatieron sobre las normas para el “parque humano” –cuando se desarrolló el debate, sobre finales de los noventa, en el año 1999– sobre la manipulación genética del ADN humano, se llegó a la conclusión de que esto era algo que no quería el ser humano abordar. Pues hoy en día debemos también introducir dónde están los límites que queremos introducir en el diseño de la inteligencia artificial.

¿Cómo poner en práctica esta perspectiva en términos de legislación y de política pública? Intuyo que no se trata meramente de prohibiciones, sino de abordarlo de diferente manera.

Claro. El diseño de inteligencia artificial en Estados Unidos busca la maximización del poder económico que acompaña al desarrollo de la inteligencia artificial. La fórmula china apuesta por una maximización del poder político que acompaña el desarrollo de la inteligencia artificial. En el primer caso los protagonistas del poder son las grandes corporaciones tecnológicas y en el segundo caso el protagonista del poder es el Estado, que se está convirtiendo en un Estado plataforma. Por tanto, el diseño responde a esa lógica: cómo acompañar ese proceso. Además, en el caso estadounidense –y probablemente en el chino también, desde otra perspectiva– hay una filosofía que es el transhumanismo, pensar simplemente que vamos hacia un modelo de élites jerarquizadas donde van a convivir unos pocos hombres, seres humanos, con máquinas, el resto de la humanidad es prescindible.

Frente a ese diseño está el diseño europeo; pero no quiero incurrir en un eurocentrismo que pueda ser interpretable como una nueva manera de predominio del Norte global, en este caso europeo, sobre el Sur global. Me estoy refiriendo más a un modelo civilizatorio que tiene que ver con una serie de valores que están ínsitos en la tradición judeocristiana, católica, griega, romana, que sustentan a los países de América Latina, a los países europeos y, probablemente, al mundo árabe, dentro de su tradición islámica; porque el islam tiene también una apreciación muy singular sobre la persona y una serie de valores relacionados con el desarrollo de ésta en términos morales. Es verdad que luego se han producido derivadas, pero como la que tuvo que soportar Europa con el fascismo o los nacionalismos –también en América Latina– o como la que el islam ahora soporta con el integrismo islámico. Es otra manera también de dogmatizar esos valores civilizatorios. Pero, probablemente la India también es una sociedad en la que hay un pluralismo epistemológico, una mirada sobre valores que interpretan el mundo desde una relación con la naturaleza –que también hay en el caso latinoamericano, a través de los pueblos indígenas– y que permiten visualizar la relación del ser humano con la naturaleza como una inteligencia colectiva capaz de gestionar la complejidad de lo que puede llegar a significar la inteligencia artificial. Eso hace falta ahormarlo, hace falta desarrollar convenios internacionales, hace falta crear iniciativas de inversión en el desarrollo de inteligencias artificiales públicas que se pongan al servicio del bien público, que regulen los algoritmos, que introduzcan en los algoritmos diseños de servicio al bien público, entendido el bien público como lo que nos afecta a todos los que convivimos dentro de un espacio compartido.

En fin, todo eso es lo que tiene que ser objeto de una regulación que implica también aspectos morales, porque –insisto, lo comentabas hace un momento tú– nos estamos situando en el papel de creadores que estamos desarrollando una criatura y una alteridad que no es humana. Nunca nos hemos enfrentado a esto. La revolución industrial introdujo una alteridad maquínica que no era potencialmente consciente, porque era una máquina que suplía al ser humano el desarrollo de su fuerza física. Mientras que la inteligencia artificial es una alteridad maquínica que disputa al ser humano la hegemonía que ha ejercido sobre el trabajo intelectual. Todavía no de manera consciente, pero estamos trabajando por ello.

En ese proceso hacia lo que es el desarrollo de esa alteridad, creo que es imprescindible ir trabajando que en el ADN sintético de esa inteligencia artificial esté presente un código moral, que tiene que ser un código instrumentalmente al servicio de la dignidad del ser humano. Y luego, con los límites que tienen que quedar claros –que es algo en lo que estoy trabajando– que es la preservación de un derecho cultural humano a la autenticidad. Es decir, que el ser humano sea preservado en su autenticidad y que la obra que nace del ser humano quede garantizada en su autenticidad frente a la obra artificial que nazca de la inteligencia artificial.

Todos esos procesos implican ir desarrollando toda una cultura de reglas y de una futura institucionalidad adaptada a lo que va a ser una nueva alteridad. Hemos desarrollado unas reglas para regular la alteridad humana: cómo resolver los conflictos entre la alteridad humana; pero tenemos ahora que pensar una relación con una alteridad subordinada, hasta que, en un determinado momento, siendo consciente, no sabemos el reto moral al que nos vamos a asomar, pero va a ser un reto moral y político al mismo tiempo. Porque si la civilización occidental se basa, por un lado, en la idea cartesiana de que si alguien piensa existe, y al mismo tiempo la organización moral y política es kantiana, bajo la idea de que quien piensa existe y tiene autonomía moral; cuando nos enfrentemos a una conciencia que piense y razone moralmente, ¿la trataremos desigualmente? ¿Cómo podemos tratarla desigualmente? Estaríamos contrariando nuestra propia lógica igualitaria, que es una parte de la civilización democrática. Por tanto, tenemos que empezar a trabajar –y ese es un gran esfuerzo intelectual– sobre qué reglas han de acompañar en ese proceso a una transición crítica que nos lleve a visualizar una alteridad artificial y qué institucionalidad debe llevarnos a ese momento. Y tenemos 30 años, probablemente, por delante.

En este momento, no veo que se le pida a una inteligencia artificial un poema y que realmente lo genere. Has hablado sobre límites que marquen la frontera entre el genio humano y lo que llegue a producirse por estas herramientas. ¿Cómo vinculas la creación artística, en particular la literaria, con la cuestión de la autenticidad?

Ya hemos visto hacia dónde está evolucionando la inteligencia artificial y la posibilidad de construir, a través de ella, una alteridad artificial frente a la alteridad humana. En términos de poder –de potestas– esa inteligencia artificial será superior, probablemente, al ser humano. Pero eso no significa que sea superior cualitativa y creativamente al ser humano. ¿Por qué? Porque, a lo mejor, estamos trabajando en desarrollar una alteridad que esté limitada por naturaleza, porque no es capaz de entender el sentido de la trascendencia. Es decir, el ser humano ha desarrollado todas sus habilidades –entre otras incluso la científica, que ha llevado a la técnica y la técnica que ha llevado a desarrollar una herramienta tecnológica como es la inteligencia artificial– bajo la idea de que necesita suplir los déficits de necesidad que le genera la condición humana. Esos déficits forman la esencia de la condición humana y es lo que le lleva al ser humano a querer trascender su fragilidad y su limitación innata, entre otras, por su corporeidad y, vinculada a ella, su vida expuesta a la muerte, a la enfermedad, incluso a una inteligencia que no es igual en todos. Eso es lo que le lleva a proyectarse siempre hacia el futuro.

La filosofía nace de la aporía, es decir, de encontrar que no hay una salida al problema. Y para salir del problema se inventa uno la salida. El desarrollo del modelo de las inteligencias artificiales se basa en replicar el conocimiento humano registrado. Pero ese conocimiento humano registrado marca una tradición en la que está trabajando permanentemente la inteligencia artificial: nos ayuda a ser excelentemente mediocres. Pero es que la condición humana no trabaja para la memoria; utiliza la memoria para trabajar sobre la condición humana, la potencialidad creativa que nos hace “futurizos” –como diría Ortega– y es ahí donde entonces surge una palabra que la inteligencia artificial no puede entender. Y en el diseño que tiene no entenderá probablemente nunca, debido a su alteridad artificial y al ADN sintético que acompaña, una inteligencia que no es vida en el sentido consciente, orgánico y limitado de la misma, que es, básicamente, la esperanza.

El ser humano trabaja el concepto a través de su condición, que es donde percute la literatura, donde está la poesía, donde está el arte en su sentido plástico más absoluto, que es, en el fondo, la esperanza. Saber que tiene una capacidad volitiva que le lleva a crear en el desarrollo imaginativo de un futuro. Y eso es en lo que yo creo que está la esencia de la autenticidad que debemos de preservar y cultivar a través de la educación. Por eso estoy trabajando también en una idea de educar para la inteligencia artificial, que pasa por eso: educar a nuestros niños en la confianza en esa autenticidad, en no renunciar a la condición humana, pues creo que el transhumanismo es la nueva ideología totalitaria. Ni la democracia autoritaria ni el populismo son el verdadero riesgo. El verdadero riesgo es un autoritarismo digital en manos de corporaciones tecnológicas o de un Estado plataforma que consagre una nueva ideología totalitaria: el transhumanismo, que es la negación de la condición humana, porque lo que busca es, precisamente, erradicar la capacidad de crear esperanza en el ser humano. Ahí es donde está la esencia de un nuevo totalitarismo. ~


    ×

    Selecciona el país o región donde quieres recibir tu revista: