“Lo que hizo OpenAI nunca podría haber sucedido en otro lugar que no fuera Silicon Valley”. Esto fue lo que le comentó un investigador chino en inteligencia artificial a la periodista estadounidense Karen Hao. Se lo decía en alusión a la capacidad de la empresa (cuando todavía era una organización sin ánimo de lucro) de obtener miles de millones de dólares de inversión para desarrollar de manera masiva una tecnología sin presentar una visión articulada y de negocio sobre qué aspecto tendría esta y para qué serviría.
Es una tendencia en la ciencia ficción actual exponer que en un futuro no muy lejano trataremos a la inteligencia artificial casi como una religión, como un oráculo al que le preguntaremos y del que obtendremos todas las respuestas. Que el futuro se asemeje a esto todavía está por definir, pero el reciente ensayo de Hao, Empire of AI, dreams and nightmares in Sam Altman’s OpenAI, muestra que la búsqueda de una inteligencia artificial que rivalice con la humana ya empezó casi como una creencia religiosa por parte de sus promotores, tanto científicos (Sutskever, Amodei…) como empresariales (Elon Musk y Sam Altman, entre otros), así como por los inversores que les apoyaron.
Es común pensar que las llamadas “visiones del mundo” de las empresas tecnológicas de Estados Unidos son solo humo para vender productos concretos. Pero tras leer el trabajo de Hao, fruto de sus conversaciones con extrabajadores de OpenAI e insiders del sector, es difícil no pensar lo contrario: que las empresas punteras del área de San Francisco creen verdaderamente en esas visiones del mundo y las persiguen sin descanso, y por el camino van convirtiendo en productos cambiantes aquellas partes parciales de su visión que han conseguido concretar.
Dentro de OpenAI, por ejemplo, lo que llevó a parte de sus trabajadores a marcharse y fundar la empresa rival Anthropic no fueron criterios de negocio concretos, sino las posturas encontradas (y en las que creen totalmente) entre los aceleracionistas de la inteligencia artificial y los catastrofistas, para quienes la seguridad lo es todo y piensan que algún día la IA podría desalinearse con nuestros intereses y acabar con la humanidad. Aunque también hubo mucho de lucha de egos y de poder. El sector aceleracionista dentro de OpenAI, por su parte, continúa poniendo a la venta nuevos modelos de IA siendo consciente de que ese es solo un fragmento muy pequeño de su objetivo, que consiste en alcanzar la inteligencia artificial general (lo que quiera que eso signifique, ya que ni siquiera existe un consenso en las distintas disciplinas científicas sobre en qué consiste la inteligencia humana).
El tono mesiánico está presente en el sector de muchas maneras. Ilya Sutskever, el principal científico de OpenAI hasta su marcha tras fracasar en el intento de destituir a Sam Altman como director ejecutivo de la organización en 2023, hablaba con sus compañeros de trabajo sobre la búsqueda de la inteligencia artificial general refiriéndose a esta como “la misión”. Altman, por su parte, en una entrada de su blog ya en 2013, reproducía una cita de cuya fuente no se acordaba y que decía que la gente exitosa crea empresas, las más exitosas crean países y las que lo son más todavía crean religiones. Luego están las predicciones que hacen muchos directivos e ingenieros del sector, que argumentan que gracias a la enorme productividad y a los descubrimientos que supuestamente lograremos gracias a la inteligencia artificial entraremos en un futuro de enorme abundancia. Sin embargo, para acceder a ese futuro, a cambio las compañías necesitan tener acceso a enormes cantidades de datos, más tierra para crear centros de datos e ingentes cantidades de agua potable y energía para hacerlos funcionar.
Hao cree que la dinámica de acumulación de recursos, conocimiento y poder de las grandes empresas de inteligencia artificial trasciende el funcionamiento de la economía de mercado para acabar teniendo una lógica imperial. La aparición de Mark Zuckerberg del año pasado, con el pelo largo y rizado propio de un emperador romano y llevando una camiseta con la locución latina modificada “aut Zuck, aut nihil”, es la traslación simbólica de esta lógica. La locución original, que se traduce como “o César o nada”, expresa la idea de la ambición extrema donde se aspira al máximo logro.
Los imperios y las religiones buscaron en el pasado lo que entendían que era el bien para la humanidad, pero por el camino en su lugar generaron grandes cantidades de daño y sufrimiento. Las empresas tecnológicas de inteligencia artificial parecen estar siguiendo una estela similar: instalan enormes centro de datos que necesitan agua potable para funcionar en países del sur global con sequías recurrentes y legislación laxa; su enorme consumo de energía erosiona los pequeños logros que se han conseguido en la lucha contra el cambio climático; la escasa representación de lenguas y grupos minoritarios en los datos de entrenamiento de modelos de IA minimiza todavía más su presencia en el mundo; la disolución de la realidad en internet es cada vez más evidente.
Luego están los casos de explotación laboral. De toda la producción editorial sobre inteligencia artificial que ha aparecido desde hace un par de años, el libro de Hao es uno de los menos complacientes con la industria porque al mismo tiempo es uno de los mejor documentados (con más de 300 entrevistas a unas 260 personas, más las fuentes documentales). La periodista no solo se entrevistó con ingenieros y directivos generosamente pagados de San Francisco, sino también con trabajadores precarios de la industria de anotación de datos en varios países del continente africano y América Latina, y que por remuneraciones extremadamente bajas e irregulares como freelance o en empresas subcontratadas se exponen a todo tipo de contenido desagradable (mermando su salud mental), que filtran para que no aparezca en las respuestas proporcionadas por la inteligencia artificial generativa.
Las comunidades indígenas que en el pasado fueron reprimidas por los imperios son las que precisamente hoy en día son más sensibles a lo que perciben como una nueva colonización. En latinoamérica el término “extractivismo”, antiguamente utilizado para referirse a la explotación del territorio por parte del imperio español, ya es usado para mencionar la actividad de las empresas de Silicon Valley en la región. Por su parte, un miembro de la comunidad maorí en Nueva Zelanda, que logró desarrollar su propio modelo de lenguaje al margen de las grandes compañías de IA para revivir el idioma de su pueblo, le dijo a Hao lo siguiente:
Los datos son la última frontera de la colonización. Los antiguos imperios se apoderaron de la tierra de las comunidades indígenas y luego les obligaron a volver a comprarla, con nuevos términos y servicios restrictivos, si querían recuperar la propiedad. La IA es solo otro nuevo acaparamiento de tierras. A las grandes empresas tecnológicas les gusta recopilar tus datos más o menos gratis para construir lo que quieran, sea cual sea su objetivo final, y luego darles la vuelta y vendértelos como un servicio.
El auge de la inteligencia artificial ha avivado el debate sobre cómo deberíamos asegurarnos de que esta tecnología haga el bien para la humanidad y evitar que incurra en algunas de las dinámicas de los imperios del pasado. Filósofos como la española Adela Cortina sostienen que lo ideal sería legarles nuestra ética a los modelos de IA, pero esta aproximación tiene al menos dos escollos. El primero es que en el corto plazo no está tan claro cómo se programa la ética, y el segundo es que los conceptos del bien y el mal varían en función de a quién le preguntemos.
Por su parte, Ria Kalluri, investigadora en inteligencia artificial de la universidad de Stanford, tiene una aproximación más pragmática e inmediata. Para ella, en lugar de lo anterior, deberíamos analizar cómo la IA cambia el equilibrio de poder, si lo aumenta y lo consolida todavía más o por el contrario lo distribuye, y tratar de encaminarnos hacia lo segundo. Enseñarles nuestra ética a los robots en un momento distante sería desde luego lo idóneo, pero en el futuro inmediato, ante la enorme concentración de recursos de todo tipo por parte del sector tecnológico, parece más acuciante evidenciar esta segunda postura. Pero también la enorme falibilidad y los defectos de los ingenieros y directivos que impulsan la IA, a quienes por las noches les mantiene despiertos la posibilidad de que esta tecnología acabe con la humanidad algún día (y su papel en ese final), pero que con sus acciones ya están causando perjuicios objetivos en el planeta.