No verรฉ La Casa del Dragรณn, a pesar de sus muy elevados รญndices de audiencia. La serie de HBO es una precuela de Juego de tronos, y esa serie terminรณ tan mal que ya no quiero tener nada que ver con ese mundo ficticio. Pero, ยฟserรก que la inteligencia artificial podrรญa hacerme cambiar de opiniรณn?
En una conferencia en el festival South by Southwest celebrado a principios de marzo, Greg Brockman, presidente de OpenAI, la compaรฑรญa que creรณ ChatGPT, dijo: โimagina si pudieras pedirle a tu inteligencia artificial crear un nuevo final que siga un camino diferente.โ ยฟPor quรฉ detenerse ahรญ? ยฟPodrรญa la inteligencia artificial ser la soluciรณn para corregir cada novela o guion que a alguien no le gustaron, haciendo revisiones personalizadas para hacerlos mรกs cortos o largos, menos o mรกs violentos, mรกs o menos woke?
La respuesta es no. Aunque la inteligencia artificial fuera capaz de hacer cambios a pelรญculas y libros que no te gustan, parte del valor de esas obras reside en las conversaciones compartidas que inspiran, y que requieren opiniones sobre textos en comรบn, situados histรณricamente.
Acuรฑado por el crรญtico de tecnologรญa Evgeny Morozov, el tรฉrmino solucionismo tecnolรณgico es la creencia errรณnea de que podemos hacer enormes progresos para mitigar dilemas complejos hasta solucionarlos en su totalidad, si reducimos sus elementos centrales a problemas de ingenierรญa mรกs simples. Esto es atractivo por tres razones. En primer lugar, es psicolรณgicamente consolador. Se siente bien pensar que, en un mundo complicado, los grandes retos se pueden solucionar de forma fรกcil y directa. En segundo lugar, el solucionismo tecnolรณgico es econรณmicamente atractivo. Promete una accesible, aunque no barata, soluciรณn milagrosa, en un mundo con recursos limitados para abordar muchos problemas apremiantes. En tercer lugar, el solucionismo tecnolรณgico refuerza el optimismo en torno a la innovaciรณn, en particular la idea tecnocrรกtica de que los enfoques de ingenierรญa para la resoluciรณn de conflictos son mรกs efectivos que las alternativas que tienen dimensiones sociales y polรญticas.
Pero si suena demasiado bueno para ser verdad โยกun nuevo final para una mala serie!โ, sabemos que probablemente lo sea. El solucionismo no funciona porque tergiversa los problemas y malentiende sus causas. Los solucionistas cometen estos errores porque descartan o minimizan la informaciรณn crรญtica, que muchas veces tiene que ver con el contexto. Para obtener esa informaciรณn, es necesario escuchar a las personas que tienen los conocimientos y la experiencia relevantes.
El solucionismo es un componente crucial de la forma en que las grandes empresas tecnolรณgicas venden sus visiones sobre innovaciรณn al pรบblico y a los inversionistas. Cuando Facebook se convirtiรณ en Meta y comenzรณ a anunciar su viraje hacia la realidad virtual, lanzรณ un costoso e inesperadamente deprimente comercial en el Super Bowl, que transmitรญa el mensaje de que la realidad fรญsica estรก rota y que la soluciรณn a todo lo que nos acongoja se puede encontrar en las alternativas virtuales. El mensaje tuvo un gran impacto, y hoy tenemos a las fuerzas policiales sugiriendo que el metaverso es โuna soluciรณn en lรญnea para el problema de reclutamiento de las fuerzas policialesโ porque va a permitir a los potenciales reclutas tener experiencias inmersivas como manejar vehรญculos policiales y resolver casos. Al mismo tiempo, Meta estรก haciendo movimientos que revelan que su solucionismo es una estrategia de relaciones pรบblicas. A pesar de que la compaรฑรญa era optimista con Horizon Workrooms, un producto del metaverso que permite a los equipos colaborar en realidad virtual, Mark Zuckerberg ha hecho un cambio de 180 grados al permitir que los empleados de Meta continรบen trabajando de manera remota. Tambiรฉn estรก dando seรฑales de un cambio en las prioridades de la empresa, del metaverso a la inteligencia artificial.
Ahora el solucionismo es parte del actual ciclo de publicidad y exageraciรณn en torno a la inteligencia artificial. Aunque no hay duda de que los nuevos productos de inteligencia artificial van a afectar de manera significativa la forma en la que trabajamos, socializamos y jugamos, tambiรฉn es cierto que nos estamos ahogando en un mar de hipรฉrboles. Tanto asรญ, que la Comisiรณn Federal de Comercio de Estados Unidos ha intervenido para advertir que estรก preocupada por las exageraciones de las compaรฑรญas sobre lo que sus productos de inteligencia artificial son capaces de hacer. โTodo este revuelo por la inteligencia artificial se ha extendido a muchos productos hoy en dรญa, desde juguetes hasta autos, pasando por chatbots y muchas cosas de por medioโ, escribe la agencia.
Pensemos en el siguiente tuit de Sam Altman, CEO de OpenAI:
these tools will help us be more productive (can’t wait to spend less time doing email!), healthier (AI medical advisors for people who canโt afford care), smarter (students using ChatGPT to learn), and more entertained (AI memes lolol).
โ Sam Altman (@sama) February 19, 2023
Afortunadamente, hay muchos avances prometedores en el campo de la inteligencia artificial para la investigaciรณn y los diagnรณsticos mรฉdicos. Pero la idea de que los asesores mรฉdicos de inteligencia artificial van a ser una bendiciรณn para las personas que โno pueden pagar asistencia mรฉdicaโ es poco realista en el peor escenario y exagerado en el mejor. Para tomar en cuenta la mejor versiรณn de la afirmaciรณn de Altman, digamos que en algรบn momento los asesores mรฉdicos de inteligencia artificial van a ofrecer consejos de alta calidad en algunas รกreas de la salud. Aun asรญ, predominan buenas razones para ser escรฉpticos.
En primer lugar, segรบn Benjamin Mazer, profesor de patologรญa de la Universidad Johns Hopkins, los avances de la inteligencia artificial estรกn a punto de provocar un aumento en los costos de la salud. Conforme la inteligencia artificial avanza y tiene mayor capacidad para realizar exรกmenes fรญsicos y analizar de manera rigurosa historiales mรฉdicos y sรญntomas, se espera que la industria mรฉdica en Estados Unidos incluya en cada consulta y anรกlisis una โtarifa por servicioโ. Mรกs allรก de convertir a la inteligencia artificial en una mรกquina de hacer dinero con el diagnรณstico, Mazer anticipa que haya โavalanchas de asistenciaโ en el momento en que los sistemas de inteligencia artificial recomienden pruebas y procedimientos costosos, incluyendo algunos โinnecesarios, alarmantes, e incluso perjudicialesโ. En resumen, los avances en la automatizaciรณn mรฉdica podrรญan fรกcilmente conducir a un aumento en los costos mรฉdicos.
En segundo lugar, ยฟde quรฉ sirven los buenos consejos mรฉdicos si no conducen a la acciรณn? Mรกs allรก del gasto en pruebas y procedimientos, la medicina, muchas terapias (como la terapia fรญsica), la alimentaciรณn saludable y otras respuestas tรญpicas para solucionar los problemas mรฉdicos son muy costosas. Precisamente ese es el problema para las personas que no tienen acceso a asistencia mรฉdica. No queda claro cรณmo un chatbot pueda abaratar cualquiera de estas cosas.
En tercer lugar, incluso en los casos donde los consejos de la inteligencia artificial no son caros de implementar, podemos esperar una variaciรณn en los resultados. Por ejemplo, a pesar de que algunas personas consideran รบtil la terapia cognitiva basada en la inteligencia artificial, otras prefieren trabajar con un terapeuta humano que es empรกtico, que se preocupa (a diferencia de una inteligencia artificial que solo puede simularlo) y que les ayuda a rendir cuentas para asรญ cumplir sus objetivos. En este contexto terapรฉutico, algunas personas con menos recursos podrรญan verse relegadas a tratamientos indeseables con bots, mientras que aquellas que cuentan con mayor capacidad econรณmica podrรกn tener las preferidas consultas con humanos. Los que estรกn estancados verรกn en la inteligencia artificial un agravamiento en la desigualdad, no una soluciรณn.
Para ver si Altman estรก pensando fundamentalmente en tรฉrminos solucionistas con respecto a la inteligencia artificial o si nada mรกs escogiรณ un mal ejemplo, consideremos otra situaciรณn que captura el espรญritu de su propuesta. ยฟQuรฉ pasa con las personas de bajos ingresos usando la ayuda legal disponible con inteligencia artificial de manera gratuita o barata en lugar de pagarle a abogados humanos, que cobran por sus servicios? Imaginemos a alguien que estรก pensando en rentar un departamento, aceptar un trabajo, o contratar a alguien para que repare algo en su casa, y recurre a la inteligencia artificial para que revise el contrato y le aclare, en un lenguaje accesible, los pros y los contras de los tรฉrminos expresados en el complicado vocabulario jurรญdico. Esta no es una posibilidad irreal. El canal de televisiรณn estadounidense MSNBC acaba de presentar un segmento sobre el estreno de la โprimera inteligencia artificial asistente legal en la historia.โ
Le preguntรฉ a Tess Wilkinson-Ryan, especialista en contratos y profesora en la Escuela de Derecho Carey en la Universidad de Pennsylvania, quรฉ opinaba. Me dijo: โsoy bastante escรฉptica en cuanto a la utilidad de la inteligencia artificial barata para los tipos de problemas contractuales que plantean las amenazas mรกs serias a las personas con bajos recursos. Mi opiniรณn general es que los problemas mรกs grandes no tienen que ver con el hecho de que las personas no puedan entender los contratos; tienen que ver con que la gente de escasos recursos no cuenta con el suficiente capital financiero (acceso a crรฉditos, o reservas de efectivo) para pagar las transacciones que vienen con buenas condiciones.โ La excepciรณn, seรฑala Wilkinson-Ryan, es si la inteligencia artificial advierte que un contrato incluye tรฉrminos inaplicables. Pero incluso en este caso, enfatiza que la tecnologรญa tiene una utilidad limitada. โPodrรก ayudar a los inquilinos que estรกn negociando con sus caserosโ, me dijo, pero โpodrรญa no ser รบtil para escoger si rentar un departamento o no.โ
ยฟY quรฉ hay de la afirmaciรณn de Altman de que la inteligencia artificial harรก a los estudiantes โmรกs inteligentesโ porque podrรกn estudiar con ChatGPT? Aunque algunos estudiantes estรกn usando la tecnologรญa para estudiar al pedirle que les explique el material que no terminaron de entender en clase, la tecnologรญa tambiรฉn estรก causando una ola de pรกnico en las escuelas. Los profesores se esfuerzan para descifrar cรณmo enseรฑar y calificar ahora que el plagio es tan sencillo y difรญcil de detectar. Ademรกs, es difรญcil crear polรญticas educativas eficaces, entre otras cosas porque los chatbots evolucionan de manera rรกpida, limitando los protocolos y los procedimientos a una vida รบtil corta. En resumen, es demasiado temprano para saber si las tecnologรญas como ChatGPT harรกn que los estudiantes sean mรกs inteligentes, porque no sabemos quรฉ mรฉtodos de instrucciรณn y enseรฑanza basados en la tecnologรญa surgirรกn como medidas adaptativas.
Pero por lo menos Altman tiene razรณn cuando dice que seremos mรกs productivos, ยฟverdad? No tan rรกpido. La idea de aumentar la productividad puede ser engaรฑosa, porque muchas personas asumen que el aumento en la eficiencia se traduce en menos y mejor trabajo. Las redes sociales estรกn llenas de personas adulando la manera en la que la รบltima actualizaciรณn de ChatGPT, que utiliza el nuevo gran modelo multimodal GPT-4 de Open AI, es un fantรกstico truco de productividad para automatizar de manera rรกpida algunas tareas que antes tomaban mucho tiempo. Se les estรก escapando que estas ganancias serรกn efรญmeras. Comparado con los flujos de trabajo anteriores, su pronta adopciรณn supone un ahorro de tiempo. Pero, una vez que todos se pongan al dรญa y gocen de los mismos beneficios de la automatizaciรณn, los estรกndares sobre hacer un buen trabajo en entornos competitivos aumentarรกn. Asรญ, Ian Bogost profesor de la Universidad de Washington, caracteriza OpenAI como โla adopciรณn de un modelo clรกsico de solucionismoโ y enfatiza que herramientas como ChatGPT โimpondrรกn nuevos regรญmenes laborales y de gestiรณn por encima de la mano de obra necesaria para llevar a cabo los esfuerzos de ese supuesto ahorroโ.
Para poder sacar el mayor provecho a la inteligencia artificial, debemos tener muy clara la manera en que su uso va a impactar en la sociedad. Exagerar sus bondades va en detrimento de esa meta. Y el solucionismo es una de las peores formas de sobreestimaciรณn. ~
Este artรญculo es publicado gracias a una colaboraciรณn de Letras Libres con Future Tense, un proyecto de Slate, New America, y Arizona State University.
es profesor de filosofรญa del Rochester Institute of Technology.