No veré La Casa del Dragón, a pesar de sus muy elevados índices de audiencia. La serie de HBO es una precuela de Juego de tronos, y esa serie terminó tan mal que ya no quiero tener nada que ver con ese mundo ficticio. Pero, ¿será que la inteligencia artificial podría hacerme cambiar de opinión?
En una conferencia en el festival South by Southwest celebrado a principios de marzo, Greg Brockman, presidente de OpenAI, la compañía que creó ChatGPT, dijo: “imagina si pudieras pedirle a tu inteligencia artificial crear un nuevo final que siga un camino diferente.” ¿Por qué detenerse ahí? ¿Podría la inteligencia artificial ser la solución para corregir cada novela o guion que a alguien no le gustaron, haciendo revisiones personalizadas para hacerlos más cortos o largos, menos o más violentos, más o menos woke?
La respuesta es no. Aunque la inteligencia artificial fuera capaz de hacer cambios a películas y libros que no te gustan, parte del valor de esas obras reside en las conversaciones compartidas que inspiran, y que requieren opiniones sobre textos en común, situados históricamente.
Acuñado por el crítico de tecnología Evgeny Morozov, el término solucionismo tecnológico es la creencia errónea de que podemos hacer enormes progresos para mitigar dilemas complejos hasta solucionarlos en su totalidad, si reducimos sus elementos centrales a problemas de ingeniería más simples. Esto es atractivo por tres razones. En primer lugar, es psicológicamente consolador. Se siente bien pensar que, en un mundo complicado, los grandes retos se pueden solucionar de forma fácil y directa. En segundo lugar, el solucionismo tecnológico es económicamente atractivo. Promete una accesible, aunque no barata, solución milagrosa, en un mundo con recursos limitados para abordar muchos problemas apremiantes. En tercer lugar, el solucionismo tecnológico refuerza el optimismo en torno a la innovación, en particular la idea tecnocrática de que los enfoques de ingeniería para la resolución de conflictos son más efectivos que las alternativas que tienen dimensiones sociales y políticas.
Pero si suena demasiado bueno para ser verdad –¡un nuevo final para una mala serie!–, sabemos que probablemente lo sea. El solucionismo no funciona porque tergiversa los problemas y malentiende sus causas. Los solucionistas cometen estos errores porque descartan o minimizan la información crítica, que muchas veces tiene que ver con el contexto. Para obtener esa información, es necesario escuchar a las personas que tienen los conocimientos y la experiencia relevantes.
El solucionismo es un componente crucial de la forma en que las grandes empresas tecnológicas venden sus visiones sobre innovación al público y a los inversionistas. Cuando Facebook se convirtió en Meta y comenzó a anunciar su viraje hacia la realidad virtual, lanzó un costoso e inesperadamente deprimente comercial en el Super Bowl, que transmitía el mensaje de que la realidad física está rota y que la solución a todo lo que nos acongoja se puede encontrar en las alternativas virtuales. El mensaje tuvo un gran impacto, y hoy tenemos a las fuerzas policiales sugiriendo que el metaverso es “una solución en línea para el problema de reclutamiento de las fuerzas policiales” porque va a permitir a los potenciales reclutas tener experiencias inmersivas como manejar vehículos policiales y resolver casos. Al mismo tiempo, Meta está haciendo movimientos que revelan que su solucionismo es una estrategia de relaciones públicas. A pesar de que la compañía era optimista con Horizon Workrooms, un producto del metaverso que permite a los equipos colaborar en realidad virtual, Mark Zuckerberg ha hecho un cambio de 180 grados al permitir que los empleados de Meta continúen trabajando de manera remota. También está dando señales de un cambio en las prioridades de la empresa, del metaverso a la inteligencia artificial.
Ahora el solucionismo es parte del actual ciclo de publicidad y exageración en torno a la inteligencia artificial. Aunque no hay duda de que los nuevos productos de inteligencia artificial van a afectar de manera significativa la forma en la que trabajamos, socializamos y jugamos, también es cierto que nos estamos ahogando en un mar de hipérboles. Tanto así, que la Comisión Federal de Comercio de Estados Unidos ha intervenido para advertir que está preocupada por las exageraciones de las compañías sobre lo que sus productos de inteligencia artificial son capaces de hacer. “Todo este revuelo por la inteligencia artificial se ha extendido a muchos productos hoy en día, desde juguetes hasta autos, pasando por chatbots y muchas cosas de por medio”, escribe la agencia.
Pensemos en el siguiente tuit de Sam Altman, CEO de OpenAI:
these tools will help us be more productive (can’t wait to spend less time doing email!), healthier (AI medical advisors for people who can’t afford care), smarter (students using ChatGPT to learn), and more entertained (AI memes lolol).
— Sam Altman (@sama) February 19, 2023
Afortunadamente, hay muchos avances prometedores en el campo de la inteligencia artificial para la investigación y los diagnósticos médicos. Pero la idea de que los asesores médicos de inteligencia artificial van a ser una bendición para las personas que “no pueden pagar asistencia médica” es poco realista en el peor escenario y exagerado en el mejor. Para tomar en cuenta la mejor versión de la afirmación de Altman, digamos que en algún momento los asesores médicos de inteligencia artificial van a ofrecer consejos de alta calidad en algunas áreas de la salud. Aun así, predominan buenas razones para ser escépticos.
En primer lugar, según Benjamin Mazer, profesor de patología de la Universidad Johns Hopkins, los avances de la inteligencia artificial están a punto de provocar un aumento en los costos de la salud. Conforme la inteligencia artificial avanza y tiene mayor capacidad para realizar exámenes físicos y analizar de manera rigurosa historiales médicos y síntomas, se espera que la industria médica en Estados Unidos incluya en cada consulta y análisis una “tarifa por servicio”. Más allá de convertir a la inteligencia artificial en una máquina de hacer dinero con el diagnóstico, Mazer anticipa que haya “avalanchas de asistencia” en el momento en que los sistemas de inteligencia artificial recomienden pruebas y procedimientos costosos, incluyendo algunos “innecesarios, alarmantes, e incluso perjudiciales”. En resumen, los avances en la automatización médica podrían fácilmente conducir a un aumento en los costos médicos.
En segundo lugar, ¿de qué sirven los buenos consejos médicos si no conducen a la acción? Más allá del gasto en pruebas y procedimientos, la medicina, muchas terapias (como la terapia física), la alimentación saludable y otras respuestas típicas para solucionar los problemas médicos son muy costosas. Precisamente ese es el problema para las personas que no tienen acceso a asistencia médica. No queda claro cómo un chatbot pueda abaratar cualquiera de estas cosas.
En tercer lugar, incluso en los casos donde los consejos de la inteligencia artificial no son caros de implementar, podemos esperar una variación en los resultados. Por ejemplo, a pesar de que algunas personas consideran útil la terapia cognitiva basada en la inteligencia artificial, otras prefieren trabajar con un terapeuta humano que es empático, que se preocupa (a diferencia de una inteligencia artificial que solo puede simularlo) y que les ayuda a rendir cuentas para así cumplir sus objetivos. En este contexto terapéutico, algunas personas con menos recursos podrían verse relegadas a tratamientos indeseables con bots, mientras que aquellas que cuentan con mayor capacidad económica podrán tener las preferidas consultas con humanos. Los que están estancados verán en la inteligencia artificial un agravamiento en la desigualdad, no una solución.
Para ver si Altman está pensando fundamentalmente en términos solucionistas con respecto a la inteligencia artificial o si nada más escogió un mal ejemplo, consideremos otra situación que captura el espíritu de su propuesta. ¿Qué pasa con las personas de bajos ingresos usando la ayuda legal disponible con inteligencia artificial de manera gratuita o barata en lugar de pagarle a abogados humanos, que cobran por sus servicios? Imaginemos a alguien que está pensando en rentar un departamento, aceptar un trabajo, o contratar a alguien para que repare algo en su casa, y recurre a la inteligencia artificial para que revise el contrato y le aclare, en un lenguaje accesible, los pros y los contras de los términos expresados en el complicado vocabulario jurídico. Esta no es una posibilidad irreal. El canal de televisión estadounidense MSNBC acaba de presentar un segmento sobre el estreno de la “primera inteligencia artificial asistente legal en la historia.”
Le pregunté a Tess Wilkinson-Ryan, especialista en contratos y profesora en la Escuela de Derecho Carey en la Universidad de Pennsylvania, qué opinaba. Me dijo: “soy bastante escéptica en cuanto a la utilidad de la inteligencia artificial barata para los tipos de problemas contractuales que plantean las amenazas más serias a las personas con bajos recursos. Mi opinión general es que los problemas más grandes no tienen que ver con el hecho de que las personas no puedan entender los contratos; tienen que ver con que la gente de escasos recursos no cuenta con el suficiente capital financiero (acceso a créditos, o reservas de efectivo) para pagar las transacciones que vienen con buenas condiciones.” La excepción, señala Wilkinson-Ryan, es si la inteligencia artificial advierte que un contrato incluye términos inaplicables. Pero incluso en este caso, enfatiza que la tecnología tiene una utilidad limitada. “Podrá ayudar a los inquilinos que están negociando con sus caseros”, me dijo, pero “podría no ser útil para escoger si rentar un departamento o no.”
¿Y qué hay de la afirmación de Altman de que la inteligencia artificial hará a los estudiantes “más inteligentes” porque podrán estudiar con ChatGPT? Aunque algunos estudiantes están usando la tecnología para estudiar al pedirle que les explique el material que no terminaron de entender en clase, la tecnología también está causando una ola de pánico en las escuelas. Los profesores se esfuerzan para descifrar cómo enseñar y calificar ahora que el plagio es tan sencillo y difícil de detectar. Además, es difícil crear políticas educativas eficaces, entre otras cosas porque los chatbots evolucionan de manera rápida, limitando los protocolos y los procedimientos a una vida útil corta. En resumen, es demasiado temprano para saber si las tecnologías como ChatGPT harán que los estudiantes sean más inteligentes, porque no sabemos qué métodos de instrucción y enseñanza basados en la tecnología surgirán como medidas adaptativas.
Pero por lo menos Altman tiene razón cuando dice que seremos más productivos, ¿verdad? No tan rápido. La idea de aumentar la productividad puede ser engañosa, porque muchas personas asumen que el aumento en la eficiencia se traduce en menos y mejor trabajo. Las redes sociales están llenas de personas adulando la manera en la que la última actualización de ChatGPT, que utiliza el nuevo gran modelo multimodal GPT-4 de Open AI, es un fantástico truco de productividad para automatizar de manera rápida algunas tareas que antes tomaban mucho tiempo. Se les está escapando que estas ganancias serán efímeras. Comparado con los flujos de trabajo anteriores, su pronta adopción supone un ahorro de tiempo. Pero, una vez que todos se pongan al día y gocen de los mismos beneficios de la automatización, los estándares sobre hacer un buen trabajo en entornos competitivos aumentarán. Así, Ian Bogost profesor de la Universidad de Washington, caracteriza OpenAI como “la adopción de un modelo clásico de solucionismo” y enfatiza que herramientas como ChatGPT “impondrán nuevos regímenes laborales y de gestión por encima de la mano de obra necesaria para llevar a cabo los esfuerzos de ese supuesto ahorro”.
Para poder sacar el mayor provecho a la inteligencia artificial, debemos tener muy clara la manera en que su uso va a impactar en la sociedad. Exagerar sus bondades va en detrimento de esa meta. Y el solucionismo es una de las peores formas de sobreestimación. ~
Este artículo es publicado gracias a una colaboración de Letras Libres con Future Tense, un proyecto de Slate, New America, y Arizona State University.
es profesor de filosofía del Rochester Institute of Technology.