En la tradiciรณn griega el destino era resuelto por las Moiras quienes, poco despuรฉs del nacimiento de un hombre, se reunรญan para determinar el curso de su vida. Sus decisiones estaban por encima de los dioses: ni estos eran capaces de contravenir sus designios –la etimologรญa de “destino” deviene de la raรญz indoeuropea sta, que significa “estar de pie”, es decir, lo inamovible.
El destino –las situaciones, el carรกcter, lo largo o corto de la vida– estรก oculto para la mayorรญa de nosotros y se revela solo a travรฉs de los orรกculos y los dioses. En otras palabras, el destino es lo inevitable que obra sobre los hombres y los sucesos.
Los algoritmos son el equivalente moderno de esta idea: no solamente no sabemos cรณmo operan sino que, de manera invisible, dirigen nuestras vidas de formas insospechadas. El ejemplo mรกs cercano es Google: cualquier pregunta o necesidad de informaciรณn pasa por su algoritmo que, en segundos, regresa aquello que considera la mejor selecciรณn de resultados posibles. ¿Por quรฉ esto es un problema? W. Daniel Hillis, cientรญfico en computaciรณn, responde a esta pregunta en su ensayo Las opiniones de los motores de bรบsqueda: “En 2012 Google hizo un cambio fundamental en la manera en la que busca informaciรณn. (…) Este aรฑo, ademรกs de la bรบsqueda por palabras clave, Google ahora realiza tambiรฉn una bรบsqueda semรกntica”.
Esta bรบsqueda no solamente identifica la palabra clave en cuestiรณn, sino que establece jerarquรญas y relaciones entre las mismas. Esto puede llevar a resultados limitados que dependen del modelo semรกntico al que obedece el algoritmo. “Ahora –continรบa Hillis–, los motores de bรบsqueda hacen juicios al seleccionar los resultados que muestran. Estas decisiones no estรกn basadas en estadรญstica, sino en un modelo del mundo”.
Esto ha sido satirizado en proyectos como Google Poetics pero, en su cara mรกs oscura, refuerza la operaciรณn de ciertos estereotipos en nuestras sociedades, lo que en 2013 llevรณ a Naciones Unidas a lanzar una campaรฑa contra la desigualdad de la mujer:
Las sugerencias de Google brindan claves sobre la manera en la que funciona el modelo semรกntico al que se refiere Hillis. En otras palabras, el algoritmo cerca la informaciรณn a la que tenemos acceso y plantea preguntassobre quรฉ tipo de resultados quedan fuera de las primeras pรกginas. “Desde ahora, los motores de bรบsqueda poseen un punto de vista editorial y sus resultados reflejan ese punto. No podemos ignorar mรกs las presunciones detrรกs de dichos resultados”, concluye Hillis.
El impacto de los algoritmos no se limita a los resultados de bรบsquedas en Internet o la secciรณn de noticias de Facebook: escriben las noticias de los diarios[1], deciden los preciosde tu viaje en Uber o el del vuelo que piensas comprarpara tus vacaciones. Incluso, pueden estar detrรกs de esa obra de arte que planeas adquirir.
Tendemos a creer que los algoritmos son objetivos en tanto obedecen a ceros y unos, pero olvidamos que su lรณgica fue creada por un grupo especรญfico de personas. Recientemente, un estudio del Carnegie Mellon University demostrรณ que el sistema publicitario de Google mostraba con mayor frecuencia avisos de empleo con mejor sueldoa hombres que a mujeres. En Chicago, un intento de la policรญa por crear mapas de calor de zonas delictivas demostrรณ prejuicios raciales y econรณmicos en su implementaciรณn[2]. Google Images, ante la bรบsqueda de la palabra CEO, muestra a mujeres en tan solo 11% de los resultados–cuando el porcentaje en Estados Unidos estรก cerca del 30%.
Frank Pasquale, abogado por Harvard University, apunta hacia los riesgos asociados en el uso cada vez mayor de algoritmos: discriminaciรณn, invasiรณn a la privacidad y falta de transparencia –en sรญntesis, un nuevo Gran Hermano. El peor problema es que, como las Moiras, las decisiones de los algoritmos no admiten rรฉplica: se han convertido en una caja negra y no hay nada que exija a las compaรฑรญas transparentar cรณmo funcionan. Pasquale cuenta, en un ejemplo, cรณmo una mujer en Estados Unidos perdiรณ su historial crediticio y fue incapaz de obtener un empleo por un error en un algoritmo.
Los escenarios que esto sugiere recuerdan a Philip K. Dick: en su cuento El informe de la minorรญa, un trรญo de mutantes predice el futuro y, bajo la estructura del sistema llamado Precrimen, cientos de hombres son acusados no de crรญmenes cometidos, sino decrรญmenes que habrรกn de cometer. Algocracia: el gobierno de los algoritmos. Parafraseando a Borges, el algoritmo no es sino un abuso de la estadรญstica.
Los riesgos de que el futuro estรฉ dominado por su mano invisible son grandes: si funcionan a partir de data errรณnea o un modelo excluyente, es claro que pueden tomar malas decisiones. El mayor peligro, sin embargo, reside no en lo falible del algoritmo, sino dentro de esa inevitabilidad de la que dependemos sin mayor cuestionamiento. Detrรกs existe la creencia de que los algoritmos son necesarios, palabra cuya definiciรณn, curiosamente, la empata con el destino: “lo que forzosa o inevitablemente ha de ser o suceder”. Hรฉctor, ante el destino que las Moiras han trazado para รฉl, le dice a Aquiles: “Cumpliรณse mi destino. Pero no quisiera morir cobardemente y sin gloria; sino realizando algo grande que llegara a conocimiento de los venideros”. En nuestro caso, tal vez esto signifique alzar la voz frente la futura algocracia.
[1] Pueden tomar un quiz para saber quรฉ tan capaces son de detectar la escritura de un algoritmo versus la de una persona
[2] Hay mรกs casos documentados aquรญ. En sรญntesis, se podrรญa estar de acuerdo con lo que los autores del estudio del Carnegie Mellon University escriben: “El estatus amoral de un algoritmo no niega sus efectos en la sociedad”.
(Tampico, 1982) es narrador. En 2015 publicรณ Parรญs D.F., su primera novela, por la que ganรณ el Premio Dos Passos. En 2017 ganรณ el IX Certamen Internacional Sor Juana Inรฉs de la Cruz en la categorรญa de cuento con el libro Los recuerdos son pistas, el resto es una ficciรณn. Actualmente vive en Barcelona, desde donde mantiene El Anaquel, un blog y podcast sobre literatura y cultura.