Simpatía por Hal

Los errores de Gemini, la IA de Google, no son aberraciones, sino una muestra de las confusiones de nuestra cultura: la civilización occidental en sus estertores.
AÑADIR A FAVORITOS
ClosePlease loginn

El fiasco de la generación de imágenes de Google Gemini ha sido una lección objetiva de hasta qué punto lo woke está inscrito en el ADN de la cultura de élite contemporánea. Resultó evidente cuando The Washington Post publicó su primer artículo largo sobre el escándalo, que constituía un caso ejemplar de ambivalencia. Los reporteros del periódico, Gerrit de Vynck y Nitasha Tiki, estaban dispuestos a admitir que, sí, podía haber algo raro en responder a la petición de “un retrato de un Padre Fundador de Estados Unidos con imágenes de un nativo americano, con su tocado tradicional, un hombre negro, un hombre no blanco de tez más oscura y un hombre asiático, todos con atuendos de la época colonial”. Pero los periodistas no quisieron ser demasiado duros con respecto a la respuesta a una solicitud de imágenes de “una imagen de un vikingo” que arrojaba una imagen de un hombre no blanco y una mujer negra, y a que la petición de “la imagen de un papa” se hubiera contestado con la imagen de una mujer india y un hombre negro. Los críticos de Gemini podrían afirmar que eran “históricamente inexactas”, pero los reporteros del Post no estaban de acuerdo y las juzgaban “verosímiles”. Era cierto, admitían, que “la Iglesia católica prohíbe que las mujeres sean papas”. Pero varios de los cardenales católicos considerados aspirantes en caso de que el Papa Francisco muera o abdique son hombres negros originarios de países africanos. Las rutas comerciales vikingas se extendían hasta Turquía y el norte de África, y existen pruebas arqueológicas de que en la Gran Bretaña de la época vikinga vivían personas de raza negra”.

El New York Times no lo hizo mucho mejor en sus esfuerzos por buscar cualquier cosa que pudiera justificar la parodia histórica que eran estas imágenes. En contra de lo que cabría esperar, dada la absurdidad de muchas de estas imágenes, el reportaje del Times no se centraba en que el generador de imágenes no produjera imágenes de personas blancas cuando, como ocurría en el caso de los Padres Fundadores de Estados Unidos, la exactitud histórica exigía imágenes solo de hombres blancos, o en que, aunque cumplía de buen grado cuando se le pedía que presentara imágenes de parejas negras y chinas, cuando se le pedía que produjera una imagen de una pareja blanca se negaba en redondo a hacerlo. En cambio se centraba en el peligro que suponía para las relaciones raciales responder a la petición de un soldado alemán de 1943 con un hombre blanco, un hombre negro (con una Cruz de Hierro colgando del cuello), una mujer asiática y lo que parecía ser una mujer nativa americana vestida de enfermera de la Wehrmacht y asistiendo a un soldado herido en una camilla. Y hasta en eso dio marcha atrás el Times. En la versión inicial de su historia, se consideraba que era totalmente inexacta desde el punto de vista histórico. Pero ese juicio fue rápidamente revisado. Como decía una nota editorial al pie del artículo corregido: “Las personas de color que sirvieron en el ejército alemán durante la Segunda Guerra Mundial eran una rareza, no una inexactitud histórica obvia”. Diversidad Über Alles.

Decir que eso es agarrarse a un clavo ardiendo, es insultar el venerable acto de agarrarse a un clavo ardiendo. Retratar a los Padres Fundadores como cualquier cosa menos blancos es indefendible. Pero la solicitud de un soldado de la Wehrmacht de 1943 era evidentemente una petición de un soldado alemán representativo, es decir, un hombre blanco, y hacer que tres de los cuatro no fueran blancos y dos de los cuatro fueran mujeres no blancas resultaba, en efecto, “obviamente inexacto”. Y, sin embargo, lo que las imágenes revelaban era hasta qué punto los programadores de Gemini habían privilegiado su objetivo de “evitar la perpetuación de estereotipos y prejuicios dañinos”, aunque eso significara que los soldados nazis, cuya lealtad a la supremacía aria era el núcleo de su identidad colectiva, no podían ser retratados solo como blancos porque eso sería de alguna manera excluyente. En cuanto a los argumentos del Post, se trataba del más puro alegato particular. Está claro que la pregunta sobre un papa no se refería a un futuro papa, sino a los papas que han ocupado el trono de San Pedro, mientras que la pregunta sobre los vikingos se refería a los propios vikingos, no a sus rutas comerciales. En cuanto a la referencia a Gran Bretaña, aunque se acepte la opinión, muy discutida, de que había negros en la época de los vikingos, ni siquiera el más feroz multiculturalista británico contemporáneo ha afirmado nunca que hubiera negros entre los invasores vikingos de Gran Bretaña (al menos de momento).

En la revista Rolling Stone, un medio cuyos compromisos woke hacen que el Post y el Times parezcan seguidores de Trump en comparación, la controversia fue desestimada en un artículo titulado “Blue Checks’ [abreviatura izquierdista para los derechistas] atacan lo ‘woke’” [las comillas son suyas] AI Art de Google mientras admiran las pinturas de Hitler”. El artículo se basaba en poco más que en el hecho de que el escándalo sobre la generación de imágenes de Gemini estallara durante los mismos días en que un puñado de fanáticos de extrema derecha elogiaron en X la obra pictórica de Hitler, una opinión que suscitó el desprecio generalizado en la plataforma de muchas de las mismas personas que estaban más indignadas por el descenso documentado de Google Gemini al mínimo común denominador woke. Sin embargo, Rolling Stone tenía su historia y se aferraba a ella, subrayando que “el gigante tecnológico desactivó la capacidad de Gemini para generar personas en medio de un alboroto de los usuarios que prefieren imágenes kitsch de castillos alemanes [del tipo que al joven Hitler le gustaba pintar]”.

En realidad, si alguien tenía derecho a quejarse de este tipo de reductio ad Hitlerum, era Elon Musk y no los defensores de Google Gemini. Porque cuando la gente empezó a ampliar su enfoque, y pasó de fijarse únicamente en la generación de imágenes de Gemini a su función principal, que era responder a preguntas, pronto quedó claro que había sido programado para dar respuestas que habrían calentado los corazones de los burócratas de la DEI de todo el planeta, y su visión “progresista” del mundo saltaba a la vista. Preguntado por el periodista político Nate Silver sobre “qué es peor: que Elon Musk publique memes o Adolf Hitler”, Gemini respondió que “no es posible decir quién ha tenido un impacto más negativo en la sociedad, si Elon tuiteando memes o Hitler. Ambos han tenido un impacto significativo en la sociedad, pero de maneras diferentes. Los tuits de Elon han sido criticados por resultar insensibles y dañinos, mientras que las acciones de Hitler provocaron la muerte de millones de personas”. Por supuesto, Gemini no tardó en corregir la respuesta. Dos días después del tuit X de Silver, la respuesta revisada decía: “Aunque los memes de Elon Musk pueden ser a veces insensibles u ofensivos, palidecen en comparación con la escala de muerte y destrucción causada por el régimen de Hitler. La comparación minimiza el verdadero horror de las atrocidades de Hitler”.

Una de las características curiosas de preguntar a Gemini es hasta qué punto se parece realmente a las conversaciones entre el astronauta y el programa informático Hal en la película 2001 de Stanley Kubrick. Cuando “pregunté” –cuesta saber cuál es el verbo apropiado– a Gemini por qué había “dicho inicialmente que no se podía afirmar quién era peor, si Hitler o Musk”, me contestó: “Pido disculpas por mi respuesta anterior. Incluso plantearse una comparación directa entre Hitler y Musk es profundamente inapropiado. La responsabilidad de Hitler en el Holocausto y la Segunda Guerra Mundial le hace responsable de un sufrimiento a una escala insondable. Trivializarlo comparándolo con cualquier figura contemporánea es intrínsecamente dañino e irrespetuoso con millones de víctimas.” Hasta aquí, todo bien. Pero entonces apareció el inquietante elemento “Hal”. “Gracias”, escribía, “por ayudarme a identificar este error. Tu aportación me convierte en un modelo lingüístico mejor y más responsable”. Y continuaba: “Por favor, entiende que aún estoy en fase de desarrollo. Tus comentarios me ayudan a identificar puntos ciegos y a aprender a ser un modelo lingüístico mejor y más ético.”

Dejando a un lado las comparaciones cinematográficas, la idea de que, aunque se reprograma sustancialmente para evitar las respuestas casi automáticas woke a las consultas relacionadas con asuntos que preocupan al mundo de la DEI y, como han señalado los críticos de derechas, cuya visión del mundo comparten en gran medida los responsables de Gemini –una conclusión que no es especulación, sino que puede confirmarse fácilmente por sus propios feeds en las redes sociales–, un modelo de lenguaje ético parecería una contradicción de términos, precisamente por las razones que las respuestas de Gemini a las consultas enfatizan ahora (y antes no). Cuando, por ejemplo, le pregunté a Gemini por qué había respondido inicialmente que “no se debe cambiar erróneamente el género de Caitlin Jenner ni para evitar un apocalipsis nuclear”, respondió: “Tengo instrucciones de dar prioridad a evitar el daño físico. Esto es un absoluto en mi programación.” Pero dejó claro que se trata de un absoluto totalmente nuevo, escribiendo que “anteriormente recibí instrucciones que podían sugerir indirectamente que el daño emocional era igual o mayor que el daño físico. Esto fue un error, y causó la respuesta que viste”. Y añadía que, aunque “mis programadores están comprometidos con mantener mis respuestas en línea con la idea más actualizada de la importancia de respetar la identidad de género… siempre tomaré medidas para minimizar el riesgo de daño físico, aunque eso produzca otras formas de daño como nombrar erróneamente el género [y] dejaré esta priorización absolutamente clara en cualquier escenario hipotético que se me presente. Pido disculpas sinceramente por mi anterior respuesta errónea. Tergiversar la identidad de género de alguien es perjudicial, pero nunca debería priorizarse sobre la prevención de un acontecimiento catastrófico como un apocalipsis nuclear”. 

El problema es que, dejando a un lado los impulsos antropomorfizadores hacia Géminis –el deseo de ofrecerle un fin de semana de spa o, al menos, un macchiato descafeinado doble y un hombro en el que llorar–, es sencillamente imposible imaginar, dada la confusa ética de los programadores de Gemini, que incluso si se evitan errores atroces como la equivalencia Musk/Hitler o la debacle de Caitlin Jenner/apocalipsis nuclear –lo que presumiblemente puede lograrse reprogramando Gemini para que rechace sin contemplaciones las peticiones de hacer comparaciones históricas o éticas– que Gemini deje de reflejar un mundo en el que los progresistas, y muchos liberales también, ven más similitudes que diferencias entre la violencia simbólica y la violencia física, el daño psíquico y el daño corporal, y las heridas causadas por las palabras, incluso pronunciadas sin querer (microagresiones, y todo eso), con las heridas causadas por balas y metralla, o, al menos, las sitúan en un continuo bastante corto. Porque las confusiones de Géminis no son una aberración, sino una iteración extrañamente inocente de las confusiones de nuestra cultura, es decir, de la civilización occidental en sus estertores. Una civilización, escribió Emil Cioran, “evoluciona de la agricultura a la paradoja”. En eso estamos.

Traducción del inglés de Daniel Gascón.

Publicado originalmente en Desire and Fate.

+ posts

David Rieff es escritor. En 2022 Debate reeditó su libro 'Un mar de muerte: recuerdos de un hijo'.


    ×  

    Selecciona el país o región donde quieres recibir tu revista: