Imagen generada por inteligencia artificial.

Involucrar a las comunidades para lograr una IA para todos

Para que la inteligencia artificial aborde las desigualdades sociales, diseรฑadores y reguladores deben acercarse a las comunidades marginadas y conocer de primera mano lo que necesitan de esta tecnologรญa emergente.
Aร‘ADIR A FAVORITOS
ClosePlease loginn

El futuro de la inteligencia artificial parece prometedor. Al fin y al cabo, la IA ya tiene muchas utilidades. Las herramientas de IA pueden proporcionar traducciรณn de alta calidad en tiempo real para idiomas muy recurridos como el inglรฉs, un gran avance tecnolรณgico. Los sistemas de IA tambiรฉn estรกn preparados para aumentar la precisiรณn de las pruebas de detecciรณn del cรกncer y mejorar otros รกmbitos de la salud. Sin embargo, gran parte del discurso en torno a la IA es mรกs bien sombrรญo. No se trata solo de que la gente se preocupe por los posibles efectos de la IA generativa en su vida; las alteraciones en los empleos impulsadas por la innovaciรณn no son ni inusuales ni insuperables. Mรกs preocupantes son las pruebas cada vez mรกs numerosas de que los productos de los modelos de IA exacerban la desigualdad y la injusticia social

Es sabido que la tecnologรญa de reconocimiento facial estรก demostrando ser una herramienta de opresiรณn. Los informes de que la IA provoca detenciones errรณneas de personas de raza negra se estรกn convirtiendo en rutina. Los gobiernos de las ciudades estadounidenses estรกn utilizando cรกmaras de reconocimiento facial para vigilar y controlar de forma agresiva a los residentes de viviendas de interรฉs social, muchos de los cuales son negros. En contra de las esperanzas de que la IA redujera los prejuicios en la justicia penal, su uso hasta ahora ha magnificado las desigualdades estructurales del sistema. Mientras tanto, grandes empresas de IA, como OpenAI, explotan mano de obra en el extranjero para entrenar algoritmos. Y las herramientas de IA destinadas a beneficiar a las personas con discapacidad estรกn teniendo el efecto contrario. Esta situaciรณn estรก perjudicando a las personas que ya se encuentran en situaciรณn de desventaja, al mismo tiempo que aumenta la desconfianza en la ciencia y el gobierno.

Las respuestas que se han puesto sobre la mesa a estos problemas de equidad y justicia suelen consistir en pequeรฑos ajustes, a menudo de carรกcter tรฉcnico. La idea parece reducirse a que polรญticos, acadรฉmicos y tรฉcnicos pueden resolver los problemas de la IA identificando sesgos estadรญsticos en conjuntos de datos, diseรฑando sistemas que sean mรกs transparentes y explicables en su toma de decisiones, y ejerciendo supervisiรณn. Por ejemplo, los expertos se preguntan cรณmo podrรญan las agencias gubernamentales evaluar la seguridad y eficacia de los algoritmos. Paralelamente, la industria tecnolรณgica ha intentado educar a los desarrolladores sobre el impacto de los sesgos sociales en los algoritmos de IA y ha sugerido โ€œsoluciones de equidadโ€ mรญnimas igualmente centradas en los sesgos.

Debemos preguntarnos si realmente creemos que las personas marginadas deben contentarse con dejar sus destinos a merced de los tejesmanejes de gobiernos y empresas, cuando tales medidas han tenido escaso impacto en el pasado. ยฟDรณnde estรกn las aportaciones, en esta ecuaciรณn, de las propias personas marginadas? Si nos preocupa la equidad en la era de la inteligencia artificial, ยฟno deberรญan desempeรฑar un papel importante en la elaboraciรณn de la agenda de gobernanza quienes mรกs tienen en juego?

Las mejores soluciones descansan en un ecosistema de innovaciรณn mรกs inclusivo, en el que todos los actores โ€“no solo los reguladores y los grupos de presiรณnโ€“ asuman la responsabilidad de crear una IA equitativa y justa. Es importante que la IA no solo no discrimine, sino que se ponga proactivamente al servicio de toda la sociedad. En otras palabras, deberรญamos pensar en cรณmo garantizar que la IA no estรฉ aquรญ sรณlo para obtener ganancias, sino tambiรฉn para servir a todos, mรกs allรก de los beneficios econรณmicos que puedan generar.

Con este fin, los financiadores pรบblicos y filantrรณpicos de la investigaciรณn, las universidades y la industria tecnolรณgica deberรญan buscar aliarse con las comunidades vulnerables para aprender lo que necesitan de la IA y construirlo. Los reguladores tambiรฉn deberรญan estar atentos al terreno, no solo a lo que dicen los altos cargos. Puede que los miembros tรญpicos de una comunidad marginada โ€“o, de hecho, de cualquier comunidad no expertaโ€“ no conozcan los detalles tรฉcnicos de la IA, pero entienden mejor que nadie los desequilibrios de poder que dan lugar a las preocupaciones en torno al sesgo y la discriminaciรณn de esta tecnologรญa. Asรญ pues, es a las comunidades marginadas por la IA, y a los acadรฉmicos y organizaciones que se dedican a comprender y mejorar las desventajas sociales, a quienes los diseรฑadores y reguladores mรกs necesitan escuchar.

El avance hacia la equidad de la IA comienza en la fase de establecimiento de la agenda, cuando financiadores, ingenieros y lรญderes empresariales toman decisiones sobre las prioridades de investigaciรณn y desarrollo. Esto suele considerarse una tarea tรฉcnica o de gestiรณn, que deben llevar a cabo expertos que conozcan el estado de la cuestiรณn cientรญfica y las necesidades insatisfechas del mercado.

Pero, ยฟestos expertos comprenden realmente quรฉ necesidades deben atender? Cuando los expertos dirigen la innovaciรณn, estรกn decidiendo quรฉ problemas son importantes y cรณmo deben entenderse y resolverse. A menudo, los problemas considerados importantes son aquellos que, al ser abordados, producen beneficios. Pero a veces cuando los desarrolladores intentan resolver problemas sociales, normalmente lo hacen con una aportaciรณn mรญnima de las poblaciones mรกs afectadas. Esto conduce a diagnรณsticos errรณneos. Tal es la historia del programa One laptop per child (Una laptop por niรฑo), por ejemplo. Desarrollada por el MIT Media Lab y financiada por donantes internacionales, la iniciativa buscaba mejorar la educaciรณn de los niรฑos de familias con bajos ingresos de todo el mundo, garantizรกndoles el acceso a computadoras conectadas a internet. Pero el proyecto fracasรณ porque las computadoras no eran fรกciles de usar para los niรฑos, se rompรญan con frecuencia y eran difรญciles de reparar, y dependรญan de electricidad que, en el mejor de los casos, estaba disponible de forma intermitente. Incluso cuando las laptops funcionaban, los contenidos que incluรญan contribuรญan poco a la consecuciรณn de los objetivos educativos locales.

Centrar a las comunidades marginadas en el establecimiento de la agenda de la IA ayudarรญa a evitar estos resultados. Un ejemplo alentador es el de la Universidad Carnegie Mellon, donde los informรกticos trabajaron con residentes de Pittsburgh, ciudad natal de la instituciรณn en Pensilvania, para crear una tecnologรญa que controlara y visualizara la calidad del aire local. La colaboraciรณn comenzรณ cuando los investigadores asistieron a reuniones comunitarias en las que escucharon a residentes que sufrรญan los efectos de la contaminaciรณn atmosfรฉrica de una fรกbrica cercana. Los residentes habรญan tenido dificultades para llamar la atenciรณn de las autoridades locales y nacionales porque no podรญan aportar el tipo de datos que motivaran el interรฉs por su caso. Los investigadores se pusieron a trabajar en prototipos de sistemas que pudieran producir los datos necesarios y perfeccionaron su tecnologรญa en respuesta a las aportaciones de la comunidad. Al final, su sistema reuniรณ informaciรณn heterogรฉnea, como informes de olores, vรญdeos de las chimeneas de las fรกbricas y datos sobre la calidad del aire y el viento, que los residentes enviaron a las autoridades. Tras examinar los datos, los administradores de la Agencia de Protecciรณn del Medio Ambiente de Estados Unidos accedieron a revisar el cumplimiento de la normativa por parte de la fรกbrica, y al cabo de un aรฑo la empresa matriz de la fรกbrica anunciรณ el cierre de las instalaciones.

El diseรฑo de abajo hacia arriba, en Pittsburgh y en otros lugares, requiere apertura y humildad por parte de los investigadores, reconocimiento de la experiencia de la comunidad y el deseo de capacitar a las personas marginadas. Este enfoque no solo ayuda a satisfacer necesidades reales, sino que tambiรฉn fomenta la confianza en la ciencia y la tecnologรญa entre poblaciones sometidas a malos tratos y abandono.

Tal y como estรก constituida actualmente, la industria de la IA estรก mal equipada para respetar los conocimientos de las comunidades marginadas. Los lรญderes de la IA, tanto en el mundo empresarial como en el acadรฉmico, constituyen un grupo demogrรกficamente reducido, poco influido por el interรฉs pรบblico. Los programas de responsabilidad social se tratan como complementarios y no como fundamentales para la misiรณn, ademรกs son los primeros en desaparecer cuando las empresas y las universidades recortan los presupuestos.

ยฟCรณmo garantizar que la actual generaciรณn de tecnรณlogos sea la รบltima en actuar de este modo? ยฟCรณmo inculcar en los ingenieros โ€“y en sus lรญderesโ€“ un interรฉs genuino por los beneficios humanitarios de la IA y una mayor sensibilidad ante sus daรฑos potenciales?

Una respuesta, aunque no la รบnica, es la educaciรณn. Las universidades pueden renovar la forma en que enseรฑan ingenierรญa, integrando las humanidades y las ciencias sociales en el plan de estudios bรกsico. En la actualidad, las universidades imponen una clara separaciรณn entre la ingenierรญa y el bien social; pueden exigir que los estudiantes de STEM cursen una รบnica asignatura sobre รฉtica profesional, mientras que el resto del plan de estudios enseรฑa a los alumnos que la tecnologรญa es neutral desde el punto de vista polรญtico y moral. Mรกs รบtil serรญa diseรฑar cursos introductorios de ciencia e ingenierรญa que ayuden a los estudiantes a comprender los supuestos sociales y polรญticos que subyacen a decisiones aparentemente tรฉcnicas, asรญ como las consecuencias de estos supuestos.

El conocimiento de abajo hacia arriba y la humildad para seguir aprendiendo de los necesitados son las herramientas para garantizar una IA responsable, pero tambiรฉn para aprovechar el inmenso potencial de esta tecnologรญa emergente. La IA puede agravar los problemas sociales, pero tambiรฉn puede utilizarse para resolverlos. Ademรกs de su obligaciรณn de prevenir los daรฑos, los responsables polรญticos, los financiadores de la investigaciรณn, los lรญderes tecnolรณgicos y universitarios y los profesionales de STEM tienen la oportunidad de fomentar la equidad a travรฉs de la innovaciรณn. Ahรญ es donde reside la verdadera promesa de la IA. ~


Este texto es un extracto de un artรญculo publicado originalmente en
Issues in Science and Technology, revista trimestral de la National Academies of Sciences, Engineering, and Medicine y Arizona State University

+ posts

es catedrรกtica de Polรญtica Pรบblica y Estudios de la Mujer y de Gรฉnero, y cofundadora y directora del Programa de Ciencia, Tecnologรญa y Polรญtica Pรบblica de la University of Michigan.

+ posts

es estudiante de doctorado en la Escuela de Informaciรณn de la University of Michigan.


    ×

    Selecciona el paรญs o regiรณn donde quieres recibir tu revista: