En la pelรญcula de ciencia ficciรณn La llegada (Denis Villeneuve, 2016), basada en el cuento โStory of your lifeโ, de Ted Chiang, una lingรผista es llamada por su gobierno para establecer comunicaciรณn con visitantes extraterrestres. La historia se complica cuando sus contrapartes en China interpretan que los alienรญgenas hablan de un arma que portan consigo. El carรกcter chino para el tรฉrmino โarmaโ es el mismo que para โherramientaโ. La protagonista hace entender a la comunidad internacional que la verdadera intenciรณn de los visitantes es regalar a la humanidad una herramienta, es decir, una tecnologรญa valiosa. Una vez que se comprende la naturaleza constructiva de esta tecnologรญa, la historia llega a un desenlace interesante.
En los รบltimos meses nos hemos encontrado ante una disyuntiva semejante, relacionada con la inteligencia artificial y sus efectos sobre nuestra especie. Fantaseamos con la amenaza terminal que supone la adopciรณn generalizada de esta tecnologรญa, al tiempo que mitificamos sus poderes cuasimรกgicos.
ChatGPT, de OpenAI, es el tema favorito de la sobremesa. Esta herramienta de IA generativa prepara reportes, hace tareas escolares y escribe cรณdigo de software (probablemente uno de sus usos mรกs importantes) a partir de palabras con que el usuario la alimenta. GPT-4, lanzado en marzo, puede tambiรฉn generar texto a partir de imรกgenes.
Algo parecido hacen los sistemas que producen imรกgenes a partir de texto, como Midjourney, que ganรณ un concurso de pintura con el cuadro Theatre dโopera spatial (a partir de las palabras que le dio el humano Jason Allen), o que generan videos a partir de textos o imรกgenes, como Gen-1 y Gen-2, de Runway.
Hace unos meses, un modo de chat (tambiรฉn de OpenAI) que se autodenominรณ โSydneyโ, pareciรณ desvincularse del motor de bรบsqueda al que se le habรญa asignado, para comunicarle a Kevin Roose, del New York Times, su deseo secreto de convertirse en hacker, declararle su amor y proponerle dejar a su esposa para que iniciaran una relaciรณn. La IA tiende a inventar informaciรณn, en un fenรณmeno que los investigadores llaman โalucinaciรณnโ.
De manera similar, en una corte federal de Nueva York, un abogado fue seรฑalado por citar precedentes falsos para complementar la argumentaciรณn legal del caso en el que trabajaba, como resultado de una consulta a ChatGPT. El juez y la parte opositora descubrieron que la herramienta de inteligencia artificial arrojรณ al menos seis precedentes legales inexistentes; no solo inventรณ el contenido de los casos, sino tambiรฉn las citas de los mismos. Por si fuera poco, el abogado en cuestiรณn declara haber pedido a ChatGPT corroborar la veracidad de la informaciรณn provista, a lo que el sistema de inteligencia artificial reiterรณ que los precedentes eran correctos.
Esta y otras historias han generado la percepciรณn de que este tipo de tecnologรญas tienen sentimientos, conciencia y voluntad propia. La realidad es que no. Gary Marcus, profesor de New York University, opina que estos sistemas de IA generativa son como un autocomplete en esteroides. Es decir, hacen un anรกlisis estadรญstico de la probabilidad de que un grupo de palabras aparezca junto a otro en un contexto determinado, y van juntando frases como si se tratara de un rompecabezas, con el uso de large language models (LLM) que operan mediante un conjunto de mรบltiples capas de redes neuronales artificiales extensas, las cuales a su vez emulan a las redes neuronales biolรณgicas.
Los modelos LLM se alimentan de una infinidad de informaciรณn para realizar procesos de aprendizaje profundo. De esta manera, al analizar millones de imรกgenes, el sistema de IA puede diferenciar a un delfรญn de un tiburรณn. Por ejemplo, GPT-3 se alimenta de mรกs de 175 mil millones de conexiones estadรญsticas y se entrena estudiando dos terceras partes del internet, todo el contenido de Wikipedia, y dos grandes bases de datos de libros.
Ello plantea cuestiones jurรญdicas sobre una posible explotaciรณn de sistemas de IA de obras protegidas por derechos de autor, sin el consentimiento de sus titulares, como lo ha reclamado Getty Images al demandar a Stability AI, o en relaciรณn con el tratamiento ilegal de datos personales, como lo ha seรฑalado la Oficina del Comisionado de Privacidad de Canadรก, al haber abierto una investigaciรณn contra ChatGPT, con base en una denuncia presentada por un ciudadano en relaciรณn con la presunta recopilaciรณn, uso y divulgaciรณn de sus datos personales sin su consentimiento.
Al recopilar tantรญsima informaciรณn de la web, los sistemas de IA aprenden no solamente datos duros, sino que tambiรฉn absorben los prejuicios y sesgos que tenemos los humanos (sea que los aceptemos abiertamente o no). Es por ello que dichos sistemas han generado materiales con contenido racista, sexista, o de alguna otra manera discriminatorio u ofensivo.
Resulta tambiรฉn interesante el fenรณmeno del envenenamiento de datos, que sucede cuando, al recopilar informaciรณn disponible pรบblicamente en internet, el sistema de IA aprende comportamientos no deseados o hasta daรฑinos, por ejemplo, en el caso hipotรฉtico de que se diseminara informaciรณn que indujera al sistema de IA a confundir un semรกforo con un letrero de lรญmite de velocidad, o en el caso real en el que algunos usuarios de ChatGPT tuvieron acceso en sus cuentas a historias de conversaciones y datos personales de otros usuarios. La causa de esta falla de seguridad fue que Chat GPT adquiriรณ un bug proveniente de la librerรญa open source Redis, que lo contaminรณ. Este incidente revela que el hecho de que la IA recopile y aprenda de una gran cantidad de informaciรณn pรบblica la hace vulnerable al โsembradoโ de vectores de ataque y otras fuentes de cรณdigo malicioso.
La misma OpenAI informรณ en un reporte que, al hacer pruebas de seguridad antes de lanzar GPT-4, descubriรณ que ChatGPT habรญa sido capaz de contratar por sรญ mismo, con base en engaรฑos, a un humano para que lo ayudara a burlar una prueba de CAPTCHA. La empresa de seguridad informรกtica Check Point ha reportado que un equipo de sus investigadores logrรณ que ChatGPT planeara cada fase de un ciberataque. OpenAI ha declarado que estรก atendiendo estos problemas, con objeto de eliminarlos en las prรณximas versiones de sus sistemas.
Ante estas noticias se ha desatado una intensa ola regulatoria: la UNESCO promueve su Recomendaciรณn sobre la รtica de la Inteligencia Artificial aprobada en noviembre de 2021; la Casa Blanca publicรณ su Carta de Derechos sobre la Inteligencia Artificial en octubre de 2022; en el Parlamento Europeo la discusiรณn de una Ley de Inteligencia Artificial se encuentra avanzada; el Garante italiano para la Protecciรณn de Datos Personales bloqueรณ en marzo de este aรฑo el acceso a ChatGPT, y un diputado del PAN recientemente presentรณ una iniciativa de Ley para la Regulaciรณn รtica de la Inteligencia Artificial para Mรฉxico
A este esfuerzo regulatorio se ha sumado el activismo de mรกs de mil investigadores e interesados en la IA, liderados por Elon Musk (quien curiosamente fue cofundador y miembro del Consejo de OpenAI), que en marzo emitieron una carta llamando a los laboratorios de IA a una moratoria de por lo menos seis meses para el entrenamiento de cualquier sistema de IA โmรกs poderoso que el GPT-4โ, advirtiendo โriesgos profundos a la sociedad y la humanidadโ. Paradรณjicamente, Musk anunciรณ que lanzarรก TruthGPT, para competir contra OpenAI.
Desde 2014, Stephen Hawking habรญa opinado que โla inteligencia artificial augura el fin de la raza humanaโ y que โlos humanos, que son seres limitados por su lenta evoluciรณn biolรณgica, no podrรกn competir con las mรกquinas, y serรกn superadosโ.
El dilema parece estar en cรณmo enseรฑar a la IA a que funcione a favor de la humanidad y no en nuestra contra. La primera y segunda leyes de Asimov establecen que โun robot no harรก daรฑo a un ser humano, ni por inacciรณn permitirรก que un ser humano sufra daรฑoโ y que โun robot debe cumplir las รณrdenes dadas por los seres humanos, a excepciรณn de aquellas que entren en conflicto con la primera leyโ. El quid es que la IA aprende directamente de nosotros y emula nuestras acciones, rasgos y caracterรญsticas. Es el ser humano, y no las mรกquinas, quien ha inventado la discriminaciรณn, la inequidad de gรฉnero, los ataques cibernรฉticos y la aplicaciรณn destructiva de la energรญa atรณmica.
La discusiรณn central sobre la IA trata, pues, de una cuestiรณn รฉtica. Necesitaremos reconducir nuestra civilizaciรณn, de manera que el paradigma รฉtico que planteemos a la IA tenga sustento en el ejemplo. Serรญa lรณgicamente insostenible programar a la IA para que โhaga lo que yo digo, no lo que yo hagoโ.
En su libro Tools and weapons. The promise and the peril of the digital age, Brad Smith, presidente de Microsoft, seรฑala que la IA es una herramienta poderosa que al mismo tiempo tiene el potencial de convertirse en un arma implacable, y que serรก responsabilidad conjunta de la sociedad, la industria y los gobiernos del mundo supervisarla, controlarla y asegurarse de que la tecnologรญa funcione en beneficio de la humanidad. En mi opiniรณn, ese constituye el gran reto para nuestra civilizaciรณn contemporรกnea.
La IA constituye una oportunidad sin precedentes. Debido a que la tecnologรญa tiene una naturaleza neutral, la IA no supone un peligro en sรญ misma. Se trata, simplemente, de un espejo en el que nos miramos. Por lo tanto, no deberรญamos preocuparnos. ยฟO sรญ? ~
es abogado especializado en protecciรณn de tecnologรญa y propiedad intelectual.