Imagen generada por inteligencia artificial

Para lidiar con la IA generativa, hay que convertirla en un problema público

La IA generativa no es una curiosidad técnica o un futuro inevitable. Concebirla como un sistema de relaciones entre personas y máquinas, que comete errores y requiere cuidado, permitirá resolver mejor los problemas que acarrea.
AÑADIR A FAVORITOS
ClosePlease loginn

A menudo, los problemas que parecen limitados y puramente técnicos se abordan mejor si se reformulan como “problemas públicos”, un concepto propuesto hace casi un siglo por el filósofo y educador John Dewey. Algunos ejemplos de problemas públicos son el aire sucio, el agua contaminada, el calentamiento global y la educación infantil. Los problemas públicos provocan daños que no siempre se sienten individualmente pero que, no obstante, dan forma a lo que significa ser una persona próspera en una sociedad próspera. Estos problemas deben ser detectados, discutidos y gestionados colectivamente. A diferencia de los problemas personales, privados o técnicos, escribió Dewey, los problemas públicos ocurren cuando las personas experimentan “consecuencias indirectas” que necesitan ser colectiva y “sistemáticamente atendidas”, independientemente de las circunstancias, la riqueza, los privilegios o los intereses de un individuo. Los problemas públicos definen nuestras realidades compartidas.

La IA generativa se ha planteado como un problema técnico, pero reformularla como un problema público ofrece nuevas vías de acción. La IA generativa se está convirtiendo rápidamente en un lenguaje para contar historias colectivas de la sociedad y enseñarnos unos a otros. Si le pides a la IA generativa que haga una historia o un video que explique el cambio climático, en realidad le estás pidiendo a un modelo probabilístico de aprendizaje automático que cree una explicación estadísticamente aceptable de un problema público. Herramientas como ChatGPT y Midjourney se están convirtiendo rápidamente en lenguajes para comprender los problemas públicos, pero con poco análisis del poder que tienen para dar forma a las historias que los humanos usan para comprender las consecuencias compartidas que, según Dewey, crean la vida pública.

Para abordar eficazmente la IA generativa, tanto los consumidores como los desarrolladores deben verla no solo como conjuntos de datos sesgados y aprendizaje automático frenético, sino también como un lenguaje de rápida aparición que la gente está utilizando para aprender, dar sentido a sus mundos, y comunicarse con los demás. En otras palabras, hay que verlo como un problema público.

En primer lugar, los investigadores deben ver la IA generativa como un lenguaje poderoso –como los “límites”, “infraestructuras” y “bisagras” que los estudiosos de la ciencia y la tecnología nos dicen que crean tecnologías. Esto significa rastrear las conexiones entre las personas y las máquinas que crean el lenguaje sintético: los ingenieros que construyen sistemas de aprendizaje automático, por ejemplo; los empresarios que presentan modelos de negocios; los periodistas que crean noticias sintéticas, y las audiencias que luchan por saber qué creer. Estos son los supuestos complejos y en gran medida invisibles que hacen de la IA generativa un lenguaje para representar el conocimiento, impulsar la innovación, contar historias y crear realidades compartidas.

En segundo lugar, como sociedad, debemos analizar los daños creados por la IA generativa. Cuando las “alucinaciones” estadísticas inventan hechos, los chatbots atribuyen erróneamente autorías o los resúmenes computacionales estropean los análisis, producen un lenguaje peligrosamente erróneo que tiene toda la confianza de una certeza computacional aparentemente neutral. Estos errores no son solo curiosidades raras e idiosincrásicas de desinformación; su existencia real e imaginaria hace que la gente vea los medios como inestables, inseguros y poco fiables. Las fuentes de información de la sociedad –y su capacidad para medir la realidad– están desestabilizadas.

Finalmente, todos los miembros de la sociedad deberían rechazar las afirmaciones de las empresas de tecnología y los “padrinos” que afirman que la IA generativa es a la vez una amenaza existencial y un problema que solo los tecnólogos pueden gestionar. Los problemas públicos se debaten, se consideran y se gestionan colectivamente; no son competencia de empresas privadas ni de cuidadores autoidentificados que trabajan en sus propios cronogramas con conocimiento exclusivo. Los problemas verdaderamente públicos nunca se subcontratan a intereses privados o autoridades carismáticas.

Un problema público no es una mera curiosidad técnica, un pánico moral o un futuro inevitable. Es un sistema de relaciones entre personas y máquinas que crea lenguaje, comete errores y necesita ser cuidado sistemáticamente. Una vez que comprendamos la IA generativa como un lenguaje vital para crear realidades compartidas y abordar desafíos colectivos, podremos comenzar a verla como un problema público. Y entonces estaremos en un mejor lugar para resolverlo. ~

Este artículo fue publicado originalmente en Issues in Science and Technology, una revista trimestral publicada por la National Academies of Sciences, Engineering, and Medicine de Estados Unidos y Arizona State University.

+ posts

es profesor asociado de comunicación y periodismo en la Escuela Annenberg de Comunicación y Periodismo de la University of Southern California. Es autor de Networked press freedom: Creating infrastructures for a public right to hear (The MIT Press, 2018).


    ×

    Selecciona el país o región donde quieres recibir tu revista: