Voy a comenzar con una confesión personal: con la Inteligencia Artificial (ia) padezco de saciedad semántica. “La saciedad semántica, también conocida como saturación semántica, es un fenómeno psicológico en que la repetición de una palabra o frase causa la pérdida temporal de su significado para el oyente, quien entonces la percibe como sonidos repetitivos sin sentido”, explica Wikipedia.
Dicha dolencia es, en mi caso, consecuencia directa de la avalancha interminable de noticias, eventos, artículos de opinión, programas de televisión, conversaciones de bar y hasta discusiones navideñas (con cuñado incluido) sobre la importancia, relevancia y, sobre todo, peligros de la IA.
Basta abrir cualquier periódico para contemplar la cantidad de cursos, eventos, másteres y titulaciones, no todas oficiales ni rigurosas, relativas a la IA. En un mismo día, hojeando la prensa, aprendemos, según el criterio de la Inteligencia Artificial, que el pueblo más bonito de España es Arcos de la Frontera (¡vaya novedad!), que el perro más bonito es el husky siberiano y cuáles son los cinco chistes más graciosos (ninguno de ellos lo es mínimamente). Este nivel de trivialidad solo es comparable a la frase promocional de La ola que viene, uno de los libros sobre la materia que más éxito tienen en la actualidad: “Estamos a tiempo de salvar el mundo: Una llamada de atención sobre los descomunales riesgos de la Inteligencia Artificial.”
La irrupción de Sora, el nuevo servicio de Open ai que genera espectaculares vídeos de alta definición (que se ve de lejos que son artificiales, aunque estén bien realizados), ha supuesto un paso más en este proceso, y su lanzamiento ha acaparado titulares de periódicos y abierto los telediarios en un fenómeno que no veíamos desde que Steve Jobs sorprendiera anualmente con el lanzamiento de un nuevo iPhone.
Este tsunami de informaciones, propuestas y contribuciones de todo tipo pueden producir, además de saturación semántica, un gran nivel de confusión a la hora de diferenciar qué es relevante de verdad y qué es mera trivialización de la IA como nuevo fenómeno cool en un mundo dependiente de las modas, las tendencias y los trending topics. Y esto es más grave que la simple saturación publicitaria, porque en materia de Inteligencia Artificial la desinformación, que es muy peligrosa, brilla por su presencia.
Y, sobre todo, deberíamos ser capaces de distinguir el trigo de la paja y saber cuándo estamos ante información relevante y cuándo frente a chatarra conceptual. ¿Cómo gestionar semejante confusión? ¿Cómo orientarse en la vorágine de trivialidad y profecías apocalípticas? ¿Cómo sobrevivir al ludismo exquisito?
Permítame el lector esbozar algunas reglas para ir elaborando un Manual de supervivencia a la Inteligencia Artificial.
Regla primera: Desconfíe de los expertos
Es fácil observar la proliferación de abogados, médicos, arquitectos, lingüistas o filósofos expertos en ia. Y, por supuesto, de periodistas. Desconfíe: serán buenos expertos, o no, en sus respectivas disciplinas, pero no son expertos en Inteligencia Artificial. Serán incapaces de descifrar el más elemental de los algoritmos y a lo sumo serán capaces de entender los efectos que la IA tiene sobre sus respectivas disciplinas, algo mucho más asequible que saber de verdad lo que es un cubit, cómo funciona un ordenador cuántico o cómo descifrar un algoritmo complejo.
Sería muy útil acudir a un sexador de expertos, gremio que, al contrario que los sexadores de pollos, todavía no existe, aunque no sería mala idea crearlo. Y conste a los maliciosos, que siempre los hay, que el autor de este artículo no es ni pretende ser un experto en Inteligencia Artificial.
Busque a los verdaderos expertos en la materia y, si le gusta el género nacional, si ve un artículo, vídeo o conferencia de Nuria Oliver, Darío Gil, Elena González-Blanco o Alejandro Romero, lea o escuche con atención. Ellos saben bien de lo que hablan o escriben en materia de Inteligencia Artificial. Si le preocupa cómo debe regularse, procure hablar o escuchar a Carme Artigas, que ha estado en la sala de máquinas de la redacción del Reglamento Europeo de Inteligencia Artificial.
Regla segunda: No dé crédito a los profetas del apocalipsis
Hemos escuchado a los luditas exquisitos que anticipan todo tipo de distopías y males acerca de los efectos de la Inteligencia Artificial en el futuro de la humanidad o, más bien, en su falta de futuro.
{{En esta revista tuve ocasión de hablar de ello, en el artículo “Inteligencia Artificial y los luditas exquisitos”, publicado en el número de julio de 2023.}}
Personas solventes (por lo menos hasta que dijeron esto) han afirmado que la IA va a acabar con la civilización actual o con el mundo tal y como lo conocemos. El problema es que este mensaje apocalíptico se amplifica por provenir de personas prestigiosas en el mundo de la tecnología y el pensamiento y, en algunos casos, de la propia industria de la Inteligencia Artificial. Imaginemos a Watts, inventor de la máquina de vapor, alertando de los peligros del ferrocarril o a Edison previniéndonos de los riesgos intolerables de la electricidad.
Ciertamente, la profecía del apocalipsis, especialmente si los profetas son arrepentidos de la tecnología, al igual que el pesimismo, goza de un gran prestigio intelectual, pero ninguna de estas predicciones se basa en datos reales o aplicaciones existentes, sino en meras conjeturas. Y nuestra experiencia es que el futuro nunca sucede como profetizan los apocalípticos.
Si le preocupa el futuro de la humanidad y la posible extinción del ser humano, preocúpese del cambio climático, de la proliferación de armamento nuclear o del choque de un meteorito contra la Tierra, pero no de la Inteligencia Artificial. El excesivo consumo de energía de los sistemas de datos o de ciertas tecnologías emergentes también es un buen motivo de preocupación.
Ah, y preocúpese también de la estupidez humana, porque, como ha dicho José Luis Pardo, “lo que amenaza la humanidad no es la tecnología sino únicamente nuestra gran capacidad de estupidez”. A veces los filósofos dicen las grandes verdades.
Aprenda también a gestionar su capacidad de sorpresa. Si Chatgpt le ha sorprendido y cuando ha visto Sora ha exclamado un wow, espérese a ver lo que vendrá en el futuro: será mucho más extraordinario. No gaste su depósito de entusiasmo. Veremos muchas cosas que harán triviales las aplicaciones y servicios que ahora conocemos y tanto nos están asombrando.
Regla tercera: Preocúpese de problemas reales
La Inteligencia Artificial no está exenta de riesgos y amenazas ni de posibles efectos perniciosos, pero estos son tangibles: desde el uso de sistemas de ia para delinquir o engañar hasta su conversión en instrumento de difamación o vulneración de la intimidad; o, si usted es amigo de las emociones fuertes, las armas autónomas. Estos son los problemas que deben despertar nuestra atención y, en ocasiones, nuestra preocupación. Se trata de problemas importantes que se van renovando a medida que aparecen nuevos servicios basados en la IA.
A estos problemas deben dirigir su atención los policy makers y reguladores, para intentar alcanzar el difícil equilibrio entre innovación y mantenimiento de los derechos de los ciudadanos. Y a estos problemas se debe dirigir la demanda social de una regulación equilibrada que no frene la innovación. Es un equilibrio que ha representado un reto para el derecho desde la Revolución industrial.
En el ámbito de la seguridad y la ciberseguridad, la Inteligencia Artificial es un factor muy importante: en manos de unos delincuentes cada vez más sofisticados y dotados de medios comparables a los de las empresas más avanzadas, la IA es un foco de profunda preocupación entre los expertos en estos temas. Esté tranquilo, saben lo que hacen.
Regla cuarta: Los problemas de la IA tienen solución
Hay problemas imposibles que no tienen solución, y el fin del mundo es uno de ellos. Los problemas reales sí la tienen, y en el caso de la Inteligencia Artificial se trata de regular y establecer reglas para su utilización que eviten un mal uso o compensen los potenciales efectos negativos.
Los reguladores de todos los países, y especialmente en Europa, están estableciendo normas para ello, y la regulación piramidal europea, que diferencia los usos de la IA según sus riesgos, prohibiéndolos o regulándolos, es un buen comienzo. Diferenciar entre aplicaciones y servicios prohibidos, sometidos a autorización, a registro o liberalizados parece un buen esquema para arrancar la regulación en la materia. En un sentido semejante, la executive order de la administración Biden ofrece también recetas para evitar los mayores problemas de la Inteligencia Artificial para los derechos de los ciudadanos o los riesgos de seguridad.
Una vez más, la Unión Europea, ejerciendo su vocación de rule setter en el mundo digital, ha establecido la primera regulación en esta materia, aunque en esta área no parece que Estados Unidos se vaya a mostrar tan reticente a regular como en otras áreas de la economía digital.
El reto de los reguladores y políticos es encontrar un equilibrio razonable entre la necesaria innovación y la gestión de los riesgos actuales, y a la vez establecer una normativa que permita ir afrontando los nuevos problemas y riesgos de los nuevos servicios.
Regla quinta: Desconfíe de las soluciones locales
Si usted, ciudadano, tiene que analizar una normativa en materia de Inteligencia Artificial, mire de dónde viene. Si es de un regulador nacional o estatal, no pierda su tiempo: la regulación en materia de ia tiene que ser global, o al menos regional. Nada puede hacer, más allá de pedagogía o ser avanzadilla, una norma que trate de regular la Inteligencia Artificial en Uruguay, España o Argentina, aunque sea perfecta técnicamente.
Los gobiernos o reguladores harán bien en centrar sus esfuerzos o en influir en la regulación regional –por ejemplo, de la Unión Europea– o en promover un marco regulatorio supranacional en el mundo digital. Sobrevivir en el siglo XXI siendo un territorio regulatorio pequeño es imposible.
El motor de la Inteligencia Artificial y su liderazgo dependen de la capacidad de desarrollar más allá del laboratorio los sistemas de computación cuántica, y de momento (y posiblemente por un tiempo largo) eso solo lo pueden hacer dos países: si usted no pertenece al gobierno estadounidense o al chino, sea humilde a la hora de regular la IA.
Los datos son crueles: Alemania es el segundo país en uso de sistemas de Inteligencia Artificial, pero el decimoprimero en su desarrollo. No es de extrañar: entre 2013 y 2022 el sector privado de Estados Unidos invirtió 248,9 miles de millones de dólares en Inteligencia Artificial; China, 95.000; Alemania, 7.000 y Francia, 6.600, estos dos últimos por debajo de Israel.
Diferencias semejantes se pueden observar en la inversión pública en esta materia: en Inteligencia Artificial también es más fácil hacer discursos que políticas efectivas.
Ah, y no olvide que el objeto de la regulación no son los algoritmos, sino las personas que los diseñan. Los algoritmos no tienen sesgos ni prejuicios, los tienen las personas. Tan importante como una regulación prohibitiva o limitadora será la creación de una deontología en el diseño de los algoritmos: prohibir los sesgos es un brindis al sol si no hay un compromiso de los ingenieros. Ellos deben ir creando una deontología profesional que refleje los valores y principios de nuestra sociedad.
Regla sexta: lo más importante es la transparencia
Si pretende sobrevivir en este mundo proceloso, busque información para saber si lo que tiene delante es real/virtual o virtual/virtual. Exija a su gobierno, a las empresas y a los reguladores que le garanticen la información necesaria que le permita saber si lo que está viendo, oyendo o recibiendo como servicio, o en el uso de una aplicación, es producto en todo o en parte de la Inteligencia Artificial. El derecho a la transparencia y la información se está configurando como uno de los nuevos derechos fundamentales del siglo XXI.
Este tiene que ser el papel principal de cualquier normativa en Inteligencia Artificial: proveer de la información y la transparencia que nos permita saber, como ciudadanos adultos, qué estamos viendo o comprando.
Prohibir o someter a reglas las aplicaciones y servicios puede ser importante en muchos casos, pero en todos es esencial proveer de transparencia el uso de la Inteligencia Artificial. Es la única manera de tener ciudadanos maduros digitalmente e informados, y evitar buena parte de los posibles usos fraudulentos.
Una vez más, es responsabilidad de gobiernos y reguladores garantizar que los ciudadanos puedan distinguir la verdad de la mentira, lo genuino de lo artificial, lo fiable de lo irreal. No es una novedad: es uno de los retos principales de los buenos reguladores desde hace mucho tiempo, al menos desde la Ilustración, pero hoy la Inteligencia Artificial hace mucho más complejo afrontar el desafío.
Regla séptima: Si es usted profesor, cambie sus métodos
Uno de los sectores donde más alarma ha provocado el uso de la Inteligencia Artificial es el educativo.
El pánico se ha desatado en todas las instituciones académicas nacionales y extranjeras, que ven que sus estudiantes van a pasar por doctos sin serlo, simplemente por apretar una tecla para obtener las respuestas adecuadas de ese nuevo rincón del vago que es Chatgpt, lo que no permite distinguir a los buenos estudiantes de los que pierden su tiempo jugando a las cartas en la cafetería de la facultad, gremio poco popular entre los claustros universitarios.
No es un gran problema: cambiar la manera de enjuiciar a los alumnos y volver, quizá, a los rancios exámenes orales es una buena solución (más trabajosa, ciertamente) a este problema. Con Chatgpt se puede hacer un más que decente trabajo escrito, pero no aprobar un examen oral.
Quien debe adaptarse a los nuevos usos tecnológicos no es el estudiante, sino el profesor y el sistema educativo. Lo demás es un esfuerzo estéril que, como todos sabemos, conduce a la melancolía.
Regla octava: Aplique The Economist test a ChatGPT
Recuerde el famoso The Economist test: todos consideramos a esta prestigiosa publicación anglosajona fuente de infalible e inapelable conocimiento en aquello en lo que no somos expertos, pero nuestro juicio cambia cuando leemos un artículo de una materia que conocemos bien.
Aplique este mismo procedimiento a Chatgpt o Gemini y verá que a las ia todavía les queda mucho camino que recorrer; encontrará una respuesta larga o corta, aseada y probablemente completa, pero si usted es un experto en la materia, difícilmente aprenderá algo.
Este es un sano ejercicio que nos permitirá entender cuáles son los límites reales de la Inteligencia Artificial, al menos a fecha de hoy, y poner en perspectiva sus riesgos y potencialidades.
Regla novena: Si tiene usted una empresa, no pida peras al olmo
La Inteligencia Artificial es un instrumento a veces esencial para competir en el mercado, sobre todo en materia de datos, pero no nos va a enseñar cómo funciona nuestro negocio ni a ser competitivos. Nos dará datos e información valiosa y difícil de obtener por otros procedimientos, pero no suplirá nuestras carencias, no nos dará una estrategia empresarial ni nos dirá cómo salir de los problemas propios de la actividad empresarial.
Esté atento a cómo sus competidores utilizan la Inteligencia Artificial y qué aprenden de su uso, y gaste todo lo necesario para mantener su competitividad o su liderazgo, pero cuídese mucho de invertir su dinero en los modernos vendedores de crecepelo, que los hay. Si usted no entiende bien cómo encaja el uso de la IA en su negocio, no desembolse dinero: probablemente tampoco lo entiendan ni su proveedor ni sus competidores.
Si está en una situación realmente difícil, pida el concurso de acreedores y no espere que la Inteligencia Artificial vaya a resolver sus problemas.
Regla décima: Lo que la IA no puede hacer ni podrá hacer nunca
Para entender bien los riesgos de la Inteligencia Artificial, sus potenciales efectos nocivos y sus posibilidades, es más importante saber lo que la IA no podrá hacer nunca. Así no deberemos preocuparnos por las consecuencias de lo que no va a suceder. Es un ejercicio interesante y bastante tranquilizador que nos permite entender los muchos beneficios de la Inteligencia Artificial pero también sus límites.
También es importante entender que la IA no es un fenómeno reciente. Su origen se remonta a los años cincuenta del pasado siglo. Convivimos con ella desde entonces, aunque su desarrollo juega hoy un papel central que no tenía décadas atrás.
Siendo más precisos: ¿qué es lo que nunca podrá hacer la Inteligencia Artificial?:
– Partir de cero y crear algo que no existe.
– Opinar, ser autocrítica.
– Sentir emociones: la Inteligencia Artificial no puede experimentar emociones como los humanos. Tampoco puede recibir información por los sentidos.
– Pensar de manera abstracta y creativa o improvisar.
Y esto para lo bueno y para lo malo. Si la Inteligencia Artificial no puede hacer estas cosas, difícilmente va a poder destruir el mundo y nuestra civilización.
¿Quién iba a decirnos que a estas alturas iba a venir en nuestro rescate el gran filósofo español Xavier Zubiri, no por difícil menos necesario, y su concepto de inteligencia sentiente como elemento central de la inteligencia del ser humano? La Inteligencia Artificial ni es ni podrá ser nunca inteligencia sentiente (“el sentir humano y la intelección no son dos actos numéricamente distintos cada uno completo en su orden, sino que constituyen un solo acto de aprehensión sentiente de lo real, es la inteligencia sentiente”) y eso constituye y constituirá una muralla infranqueable en su desarrollo.
Tranquilicémonos: Soranunca podrá hacer El hombre tranquilo ni Chatgpt componer un cuarteto de cuerda de Beethoven. Pero si de verdad quiere saber lo que nunca, nunca podrá hacer la Inteligencia Artificial, póngase una grabación del aria final de Tristán e Isolda cantada por Birgit Nilsson y dirigida por George Solti para entender de verdad los límites presentes y futuros de la IA.
Voy a acabar con un ejercicio de vayapordelantismo (versión posmoderna del excusatio non petita que estudiábamos en las facultades de derecho), tan frecuentemente necesario en los últimos tiempos: vaya por delante que la Inteligencia Artificial es uno de los grandes avances de nuestra civilización y que abarca numerosos beneficios y posibilidades, de presente y de futuro. Las sombras que se perfilan en este artículo no empañan ni empequeñecen el hecho de que estamos ante los cimientos de una nueva era, la digital, que sin duda abrirá un capítulo en los libros de historia del futuro.
La saciedad semántica tiene, sorprendentemente, un uso terapéutico: sirve en determinadas ocasiones para tratar el pánico escénico. Espero que este manual de supervivencia pueda tener utilidad para afrontar el que la avalancha de la Inteligencia Artificial está provocando en algunas personas de bien. ~
es abogado del Estado (en excedencia) y experto en regulación y economía digital. Ha sido secretario de Estado de telecomunicaciones y director general de asuntos públicos de Telefónica. Preside la Comisión de
Digitalización de la Cámara de Comercio de España.