Aunque podamos vernos distraídos por la competición electoral o las pugnas partidistas, no dejamos de recibir noticias sobre la tecnología y su imbricación con la vida social o económica: tan pronto leemos que las empresas dedicadas a la Inteligencia Artificial y el Big Data planean echar mano de la energía nuclear para alimentar sus terminales, como escuchamos la penúltima soflama contra el poder corruptor de las redes sociales o vemos que un directivo de BMW advierte contra el suicidio industrial que supondría aplicar la prohibición de vender coches de combustión en la UE a partir del cada vez más cercano 2030. Hay más, claro: temores seculares sobre el impacto de la robotización en el empleo, reflexiones de índole moral sobre el empleo de drones en la lucha antiterrorista, inquietud por las posibilidades que abre la manipulación genética, incomodidad ante la producción digital de deep fakes para uso político o sexual, y así sucesivamente.
Huelga decir que las tecnologías que nos preocupan son solo una pequeña parte del total de las que empleamos; el resto se integran de manera sencilla en nuestra cotidianidad (de las gafas a las prótesis o los auriculares inalámbricos), nos parecen adiciones “naturales” al progreso científico (nuevos instrumentos para la práctica de la medicina, el procesamiento de mercancías o el escaneo de los pasajeros en el transporte comercial), o quedan sencillamente fuera de nuestro campo de visión (técnicas para dar muerte a los animales cuya carne consumimos, extraer energía mediante el fracking o mejorar la eficiencia energética de las viviendas de nueva planta). Nos rodea pacíficamente un denso entramado tecnológico que empieza en la mesa donde comemos y termina en la farmacia donde buscamos alivio para el dolor de cabeza.
Es así evidente que la controversia pública se centra en las tecnologías que resultan contenciosas por sus fines o sus efectos, ya sean estos reales o solamente potenciales; se trata por lo general de aquellas tecnologías que poseen un impacto transformador más acusado. Pero no todas las tecnologías con impacto transformador son contenciosas; muchas de ellas, como la aspiradora o el desfibrilador, reciben una aprobación general. Elevar una enmienda a la totalidad contra la tecnología tiene entonces poco sentido, porque no se ve de qué otra manera podría la especie humana haber prosperado desde los tiempos de las cavernas. Y no es que seamos la única especie con capacidad para emplear herramientas técnicas: el proverbial simio de Kubrick usa un hueso para asesinar y el castor se hace una presa con la madera que encuentra en el río. Sin embargo, ninguna otra especie ha alcanzado nuestro grado de desarrollo tecnológico, que el lenguaje y la cultura nos permiten transmitir entre grupos y generaciones.
Si algo distingue a los últimos años, en cualquier caso, es un incremento del miedo a la tecnología y sus efectos. No se trata de algo nuevo; el entero romanticismo es una contestación del racionalismo ilustrado y su justificada confianza en la posibilidad del progreso humano a través de la tecnología. Se diría que el utopismo decimonónico, vinculado a las filosofías de la historia de raigambre idealista, ha pasado de moda: no creemos ya que la realización de aquellas visiones de sobreabundancia pacífica –de Marx a Comte– sea posible. Y si el futuro se devalúa, convertido en escenario de catástrofes diversas, nuestro presente se llena de angustia. Ahí tenemos a Yuval Harari, pensador superventas empeñado en ejercer como adivino de males tecnológicos, o al también popular Byung-Chul Han, continuador del pesimismo tecnológico de la Escuela de Frankfurt. No está de más señalar que las ideas salidas de esta última durante su primer medio siglo de existencia influyó sobre el pensamiento marxista de la segunda posguerra e impregnó al entero corpus posmarxista que se encarnó en los movimientos sociales de finales de los años 60.
En su excelente introducción al pensamiento de la Escuela de Frankfurt, que acaba de ser publicada en español por Alianza, el italiano Giuseppe Bedeschi expone con lucidez los argumentos de los frankfurtianos contra esa “sociedad tecnológica” que Marcuse identificaba ya en el lejano año de 1941 con una “sociedad totalitaria”. Semejante adjetivo vendría justificado por la subordinación que el ser humano padece una vez que se dota de unas tecnologías que suprimen su libertad: las máquinas condicionan nuestra existencia y nos condenan a vivir en un mundo dominado por la “racionalidad instrumental”, que para colmo hace de la naturaleza una mera “cosa” que sirve a nuestros fines. Bedeschi cita a Marcuse: “La autonomía de la razón pierde importancia en la misma medida en que los pensamientos, los sentimientos y las acciones del hombre son modelados por las exigencias técnicas del sistema que él mismo ha creado”.
¿Quién elige, y cómo?
Bien podría decirse entonces que todos somos hijos hipócritas de la Escuela de Frankfurt: sin dejar de comprar teléfonos móviles ni renunciar a hacer turismo en avión, nos decimos preocupados por el monstruo sin control del avance tecnológico; ahí está el temor que suscita la Inteligencia Artificial. Pero, como señala el filósofo Antonio Diéguez en su último libro (Pensar la tecnología, Shackleton Books, 2024), conviene entender la tecnología última en un sentido amplio –como “una técnica basada en la ciencia, ligada al sistema de producción industrial y desarrollada mediante el diseño”– y aceptarse que los seres humanos somos lo que la tecnología ha hecho de nosotros. Mientras usábamos las tecnologías para modelar el mundo, ellas nos han modelado; para bien o para mal. Y por aquí resopla el problema político de la tecnología, que podemos vislumbrar en la advertencia que hace el propio Diéguez sobre el peligro de pensar que las tecnologías mismas son neutrales respecto de los usos que hacemos de ellas. Al contrario:
Cada forma de tecnología favorece unos valores en detrimento de otros y nos facilita un acceso preferente a la realidad en lugar de otro. […] las elecciones tecnológicas que hemos ido haciendo hasta el momento nos han traído, para bien y para mal, a la situación en la que estamos. Quizá podríamos haber hecho mejores elecciones en el pasado, pero de nada vale lamentarnos ahora por ello.
La dificultad radica en determinar qué supone hablar de “elecciones” en este contexto, así como en elucidar cómo se compadece esa presunta decisión colectiva con la política en general y la democracia en particular. ¿Quién elige, y cómo? ¿Pueden elegirse aquellas innovaciones que revelan de manera inmediata su utilidad, sin que sus efectos indeseados queden a la vista en un primer momento, o sencillamente se abren paso de manera arrolladora en contextos históricos específicos? ¿De verdad elegimos la rueda, el vehículo de combustión o el telégrafo? Más bien se diría que la noción de que “elegimos” con qué tecnologías quedarnos es el producto de una narración retrospectiva en la que se señalan las presuntas alternativas que tal o cual tecnología tuvo –o se dice que tuvo– en el momento de su aparición.
Así ha sucedido con las tecnologías fósiles, que para críticos del capitalismo como Andreas Malm fueron preferidas por el capital frente a otras que implicaban el uso de energía limpia, como la hidráulica; como si la facilidad para extraer, refinar, transportar y usar el carbón o el petróleo no hubieran influido sobre su rápida diseminación. Inversamente, podemos comprobar en vivo durante estos años qué difícil resulta forzar el cambio tecnológico a través de las decisiones del poder público; aunque el despliegue de las fuentes renovables de energía puede considerarse un éxito, la electrificación del transporte va mucho más lenta de lo que se creía y hay quien advierte de que no podrá alcanzarse en varias décadas.
La necesidad de una teoría política de la tecnología
¿Y bien? A diferencia de lo que sucede con la filosofía de la tecnología, la teoría política de la tecnología brilla por su ausencia. Así lo señala Michael Keary en un artículo reciente: mientras que el liberalismo se desentendió de la tecnología después de Adam Smith, las demás corrientes de la teoría política tampoco se han prodigado mucho sobre el asunto. Si uno se va al índice de la Enciclopedia de Pensamiento Político de Wiley-Blackwell, editada en 2014, no encontrará ninguna voz dedicada a la tecnología o a la teoría política de la tecnología; solo alusiones dispersas en las entradas que se dedican al pensamiento de Heidegger, la biopolítica o Karl Marx. De ahí que cuando el filósofo belga Mark Coeckelbergh se ha puesto a hacer filosofía política de la Inteligencia Artificial en un libro de reciente aparición en español (La filosofía política de la Inteligencia Artificial, Cátedra, 2023), lo que hace es aplicar –intentar aplicar– marcos teóricos preexistentes que nada tienen que ver con la tecnología.
Para Keary, hablar de tecnología es hablar de cambio tecnológico. Y eso, a su vez, supone hacerse dos preguntas: ¿Qué es lo que hace la tecnología con el ser humano y con la sociedad? ¿Y cómo funciona el cambio tecnológico? Este último interrogante, que es el que aquí nos interesa, admite dos respuestas: o bien el cambio tecnológico funciona de manera exógena, escapando al control humano; o lo hace de manera endógena y, en consecuencia, puede ser controlado y dirigido. Pero no está muy claro cómo podría lograrse esto último.
Sin duda, podemos imaginar a un régimen político dictatorial que renuncie a la innovación y encuentre la manera de filtrar las tecnologías globalmente disponibles que se implantarán en la sociedad sobre la que ejerce un férreo control. Pero esa dictadura no “controlará” el cambio tecnológico, sino que lo obstaculizará en el mejor de los casos y muy seguramente terminará por impedirlo. En todo caso, lo suyo es determinar si puede controlarse el cambio tecnológico en una sociedad democrática. Y quien ofrezca una respuesta afirmativa habrá de explicar cómo se logra tal cosa.
Ciertamente, el Estado puede prohibir aquellas innovaciones tecnológicas que producen un daño social incontestable; igual que puede exigir a los fabricantes de tal o cual producto la adopción de medidas que garanticen la seguridad de los consumidores o usuarios. Pero eso no equivale a controlar el cambio tecnológico. Controlar el cambio tecnológico supone determinar qué tipo de innovación se persigue y seleccionar los resultados de ese proceso antes de que tecnologías concretas sean introducidas en la sociedad por medio del mercado o de la acción del poder público; ya que cuando eso ha sucedido será más difícil prevenir su adopción y diseminación social. Si no se puede hacer tal cosa, el cambio tecnológico no será “controlable” sino apenas “mitigable”, pues estaremos reaccionando a sus efectos indeseados en lugar de diseñar nosotros mismos esos efectos. Para colmo, todavía quedará por determinar qué significa decidir de manera “democrática” sobre la bondad o maldad de las distintas tecnologías: ¿deciden los expertos, deciden nuestros representantes aconsejados por los expertos, o deciden los ciudadanos a través de un referéndum?
Nótese que nadie hubiera podido decidir que las tecnologías digitales de la comunicación resultaban desaconsejables por razón de sus efectos sobre el debate público antes de que esos efectos se manifestasen; tampoco está nada claro que esos efectos sean los que se dice que son. Es más: si el complejo proceso de innovación tecnológica se sometiese a un férreo control político, la innovación tecnológica no podría tener lugar. O sea: las condiciones de emergencia y difusión de las nuevas tecnologías se compadecen mal con el control y la deliberación que una política democrática viene a exigir. Recordemos a Schumpeter, quien tenía claro que el agente decisivo en el desarrollo del mercado libre es el emprendedor o innovador: quien introduce novedades competitivas que alteran la situación existente y contribuye con ello a esa “destrucción creativa” que define al capitalismo. Que las sociedades liberales se orienten programáticamente hacia la innovación no debe hacernos olvidar que las grandes innovaciones tecnológicas –pensemos en la pólvora o la imprenta– han sido revolucionarias en cualquier tiempo y lugar.
Cambio tecnológico y control democrático
Algo parecido a un dilema parece dibujarse ante nosotros: no podemos tener simultáneamente cambio tecnológico y control democrático. Si reforzamos este último, la capacidad de innovación se reducirá de manera significativa; si apostamos por el fomento del cambio tecnológico al margen del control democrático, la tasa de innovación aumentará –siempre y cuando se den las condiciones institucionales, económicas y culturales para ello– a la vez que disminuye nuestra capacidad para limitar de antemano sus efectos indeseados. Y dado que existen innumerables tecnologías controvertidas, además de diferentes formas de ver el lugar que la tecnología habría de ocupar en el interior de una comunidad humana, el control democrático no tendría por qué ir de la mano del consenso social; el dilema amenaza con convertirse en un trilema.
Aunque cambio tecnológico y política democrática parecen hablar lenguajes distintos, las democracias realmente existentes optan por un camino intermedio. De un lado, se asume que la tecnología es indispensable para producir bienestar material, razón por la cual se estimula su ocurrencia por distintos medios: promoción de la ciencia básica, ayudas financieras, financiación de proyectos dirigidos en función de objetivos prefijados, etc. Del otro, se somete el cambio tecnológico a una regulación –informada por los expertos– que trata de minimizar sus efectos negativos y de maximizar los positivos, fijando de paso algunas limitaciones de orden moral (trato de animales o experimentación genética) a las que habrán de someterse quienes protagonizan el proceso de innovación sobre el terreno.
Salta a la vista que se ejerce con ello una influencia débil sobre el cambio tecnológico; la eficiencia se antepone al control. Y seguramente sea la decisión correcta, ya que no parece que podamos “elegir” la tecnología que usaremos igual que se elige si las tiendas cierran los domingos. Habrá quien sostenga que hay buenas razones para incrementar el control político de la tecnología, incluso si con ello desciende la tasa de innovación o disminuye marginalmente nuestro bienestar material. ¡Hay debate! Pero ese debate requiere una teoría política de la tecnología y el cambio tecnológico más robusta; una que además tenga la cautela de atender a la evidencia empírica disponible y no se limite a formular buenos propósitos. Habida cuenta de que el papel de la tecnología en nuestras vidas no parece ir a menos, sino todo lo contrario, conviene que nos pongamos manos a la obra.
(Málaga, 1974) es catedrático de ciencia política en la Universidad de Málaga. Su libro más reciente es 'Ficción fatal. Ensayo sobre Vértigo' (Taurus, 2024).