El año pasado, en la “sagrada” ceremonia de presentación de productos de Apple, el iPhone X fue el protagonista indiscutible. Entre las funciones que más se destacaron, estaba el nuevo sistema de reconocimiento de seguridad del dispositivo: Face ID. En lugar de desbloquear su teléfono usando su huella digital en el botón de inicio, que ya ni siquiera existe, ahora los usuarios pueden desbloquearlo con solo apuntar el teléfono hacia su rostro gracias esta tecnología que utiliza las cámaras del dispositivo para hacer escaneos 3D de la cara de los usuarios.
En el evento, un ejecutivo presumía de la seguridad que ofrece la tecnología de reconocimiento facial en comparación con la tecnología Touch ID de huellas digitales. Según el ejecutivo, solo existe una probabilidad de uno en un millón de que la cara de un tercero desbloquee nuestro teléfono. Enseguida, cientos de usuarios en todo el mundo se empezaron a grabar intentando superar esta tecnología. Probaron con máscaras elaboradas, variaciones en la iluminación, maquillaje, disfraces e, incluso, con la cara de su gemelo, pero prácticamente todos fracasaron.
Sin embargo, la euforia por el potencial de seguridad de Face ID ha decaído por los usos recientes y controversiales que se le ha dado a la tecnología de reconocimiento facial. Por ejemplo, en septiembre, dos investigadores de Stanford publicaron un estudio cuestionable donde afirmaban que un sistema de autoaprendizaje predecía, con una precisión de entre el 74 y el 81 por ciento, la orientación sexual de un hombre o una mujer basándose únicamente en fotografías de su cara. Ese mismo mes, otro equipo de investigadores presentó un ensayo sobre un sistema de autoaprendizaje que puede identificar a manifestantes con gorras y bufandas simples con una precisión de alrededor del 69 por ciento. Los dos estudios tienen sus fallas y, sin embargo, plantean inquietudes muy válidas a la hora de analizar cómo las tecnologías de reconocimiento facial podrían ser usadas contra sectores vulnerables de la población, como minorías, opositores políticos y las clases bajas.
Pero nada de esto debería sorprendernos. Si bien las posibilidades que se abren parecen revolucionarias, la idea de utilizar la tecnología para analizar caras y confirmar identidades, hacer juicios de valor o predecir comportamientos no es nada nuevo. En realidad, parece que las caras están otra vez de moda, pero ahora redoblan la apuesta. Aunque este tipo de tecnología ha sido descartada como pseudociencia racista, como en el caso de la fisiognomía, o desplazada por otras tecnologías biométricas, como el ADN o las huellas digitales, los humanos hemos dedicado una extraordinaria cantidad de recursos intentando detectar patrones en nuestros rostros que nos permitan revelar detalles de nuestra personalidad o nuestro comportamiento. Durante siglos, hemos estudiado los rostros intentando encontrar un código de la naturaleza humana que podamos descifrar e interpretar.
Sin embargo, los desarrolladores de las herramientas de análisis y reconocimiento facial modernas dicen que sus tecnologías son diferentes. Las cámaras de alta tecnología y los algoritmos avanzados nos permiten suponer un nivel de precisión y de objetividad científica nunca antes vistos. Sin embargo, hay varios ejemplos del pasado que nos advierten sobre los límites de nuestras propias proyecciones y que nos demuestran cómo ha cambiado nuestro concepto de precisión y el costo social de usar y abusar de estas herramientas de identificación.
Durante prácticamente toda la historia, la humanidad no ha tenido dispositivos sofisticados de reconocimiento. Aunque en esta época digital eso puede parecer obvio, es importante recordar la influencia que tuvieron las interacciones cara a cara y los rostros en el desarrollo de la sociedad moderna. Los múltiples componentes del rostro humano —la infinita combinación de músculos, nervios y expresiones, así como la noción de que la cara escondía patrones de identificación inalterables y más fiables que un nombre, una firma, una prenda de ropa o una credencial— hicieron que fuera más fácil usarlos como estándares de identificación y confianza.
Sin embargo, la urbanización y el crecimiento poblacional que acompañaron a la Revolución Industrial rompieron con la posibilidad de conocer todos los rostros en una pequeña comunidad. En muy poco tiempo, encontrar formas alternativas de reconocer a las personas se volvió una prioridad de seguridad para los ciudadanos y para las autoridades.
Llevar los signos verbales y visuales de la identificación facial al papel fue el primer paso para adoptar el rostro humano como una contraseña biométrica. Podemos verlo en los primeros pasaportes y en los carteles para atrapar a esclavos fugitivos. En ambos casos, las descripciones físicas de los rostros se basaban en categorías predeterminadas que buscaban ser lo suficientemente objetivas como para identificar a una persona en una multitud. Por ejemplo, esta es la descripción de un esclavo indígena fugitivo del siglo XIX que vivía en la región de los Andes: “Juan. 10 años. Cara promedio. Color mestizo. Pelo negro lacio, ojos café, nariz delgada, labios promedio. Tiene una cicatriz en la frente”. Aunque es bastante inexacta, este tipo de descripciones fueron utilizadas para reforzar el cosmopolitismo y la esclavitud.
El siguiente avance tecnológico fue encontrar una manera de representar visualmente el rostro humano. Primero, se usaron dibujos hechos a mano. Pero no fue sino hasta la invención de la fotografía que los retratos se convirtieron en una forma masiva de representación e identificación. De repente, miles de rostros comenzaron a plasmarse en papel: en las cartes de visite, que se distribuían entre conocidos; en las fotos de los criminales en las estaciones de policía; y en las solicitudes de pasaporte.
La posibilidad de capturar algo tan complejo como el rostro humano en un medio objetivo —después de todo, la cámara nunca miente— hizo resurgir el sueño utópico de la tecnología. Los oficiales de policía veían en las fotografías de criminales la posibilidad de revolucionar la manera en que encontraban y arrestaban a los sospechosos. Los criminólogos aprovecharon las fotografías para desarrollar sus teorías sobre la relación entre ciertos rasgos físicos y ciertos comportamientos anormales. Los gobiernos las adoptaron como herramienta de verificación de alta tecnología para pasaportes, permisos laborales, credenciales de identificación, etc.
Solo tomó unos cuantos años para que las cámaras pasaran de estudios fotográficos ocultos a oficinas burocráticas, estaciones de policía y prisiones, lo que facilitó que las autoridades tomaran fotos de ciudadanos, sospechosos y criminales. Sin embargo, al menos al principio, las fotografías no resultaron ser tan útiles como se esperaba. Actualmente, se utilizan lineamientos altamente estandarizados para las fotos de criminales, así como fotos de perfil y de frente. Pero, en la época victoriana, los métodos eran un poco más caóticos. Los prisioneros no querían cooperar, se tenía que transportar y reubicar el pesado equipo, y la calidad de las imágenes y las clasificaciones variaban entre las mismas instituciones, lo que complicaba aún más el intercambio de información entre agencias. Además, los criminales más astutos siempre tenían la opción de cambiar su apariencia física.
Alrededor de esta época, surgió una técnica conocida como bertillonage, que prometía un sistema de identificación biométrico estandarizado a prueba de fallas. Diseñado por el policía francés Alphonse Bertillon a mediados del siglo XIX, su método epónimo consistía en medir cuidadosamente 11 partes del cuerpo, entre ellas, el largo del dedo anular, el largo de la oreja derecha y el largo de la cabeza. Bertillon creía que estas medidas, junto con las fotografías, podían representar una forma única de identificar a sospechosos, criminales e inmigrantes, así como de facilitar el almacenamiento, el uso y la comparación de datos. Las autoridades lo aceptaron enseguida como un sistema de clasificación de alta tecnología.
En la teoría, el sistema bertillonage era un avance innovador, pero en la práctica resultó ser una pesadilla. Como vemos en los diagramas de un manual, el método requiere de complicadas posturas y de una gran variedad de instrumentos para medir cada parte del cuerpo. A pesar de sus dificultades técnicas, hay que reconocer que fue uno de los primeros sistemas de big data, un sistema que sería usado para clasificar metódicamente una enorme colección de rostros y cuerpos humanos.
Después del fracaso del sistema bertillonage, el reconocimiento facial se vio relegado ante los avances de otras tecnologías de identificación más prometedoras. Entonces, la tecnología de identificación de huellas digitales se impuso como el principal sistema de autenticación biométrica: primero, para organismos de justicia penal; luego, para sistemas de seguridad comercial; y, por último, para dispositivos digitales de uso personal (sí, eso incluye al Touch ID, el precursor de Face ID de Apple). Hubo otros métodos de autenticación biométrica que también tuvieron importantes avances, como las tecnologías de reconocimiento por voz, por iris, por código genético o, incluso, por la forma de caminar.
En los años noventa, varias agencias gubernamentales, como los dependencias encargadas de regular a conductores y vehículos, empezaron a incorporar software de reconocimiento facial para evitar robos de identidad y fraude en las licencias para conducir. Sin embargo, después de los ataques del 11 de septiembre y la consecuente “guerra contra el terrorismo”, las técnicas de vigilancia masiva cambiaron y se expandieron considerablemente. Estos cambios permitieron el resurgimiento de la identificación facial como el principal método de identificación biométrica. Las autoridades intensificaron el nivel de vigilancia por video y analizaron millones de imágenes de cámaras de seguridad y en redes sociales. Asimismo, el gobierno de los Estados Unidos realizó fuertes inversiones para desarrollar nuevas tecnologías. Por ejemplo, el FBI se enfocó en su sistema de Identificación de Próxima Generación: una base de datos que es, según la página web del FBI, “el repositorio electrónico de información biométrica y de antecedentes criminales más grande y más eficiente del mundo”. Esta base de datos incluye un sistema de búsqueda y respuesta de reconocimiento facial automático para las agencias de seguridad pública. El Departamento de Seguridad Nacional de los Estados Unidos también tomó medidas para expandir sus programas de recopilación de escaneos de iris y de rostros en los aeropuertos.
Las empresas privadas también se sumaron a la iniciativa y comenzaron a competir para desarrollar un método de autenticación facial altamente preciso y seguro. Además de Apple, Facebook ha surgido como líder en tecnología de reconocimiento facial. La compañía de redes sociales ha estado desarrollando su algoritmo con “precisión humana” DeepFace, que busca identificar un rostro en imágenes previamente cargadas a la plataforma, incluso desde diferentes ángulos o con otras condiciones de iluminación. Google tampoco se queda atrás: su aplicación Arts & Culture, que empareja la selfie de un usuario con retratos de diferentes museos del mundo, fue un éxito mundial. Y, aunque parezca increíble, la tecnología de identificación facial también está llegando a tiendas departamentales y cadenas de comida rápida.
Sin embargo, además de los rápidos avances en precisión, estas tecnologías pueden cometer errores y pueden ser fácilmente malinterpretadas y mal utilizadas.
Primero que nada, hay que tener claro que están lejos de ser infalibles. Al parecer, cada semana tenemos un nuevo caso de alguien que logra derrotar el “súper seguro” sistema Face ID de Apple, como el caso del investigador de una firma de ciberseguridad vietnamita que usa máscaras para desbloquear teléfonos; el niño de 10 años que puede desbloquear el teléfono de su mamá; o la mujer china que puede desbloquear el teléfono de su compañera de trabajo (en este caso, muchos culpan la falta de diversidad en los campos de tecnología). Estos ejemplos sirven como un recordatorio de que necesitamos considerar la tecnología como un proceso continuo que necesita mejoras constantes. En retrospectiva, podemos aceptar que los precursores de las tecnologías modernas de reconocimiento facial fracasaron por los prejuicios de sus desarrolladores (creamos cámaras y películas optimizadas solo para pieles blancas) y por sus aplicaciones (como la “ciencia” de la fisiognomía). También podemos ver que estas tecnologías no lograron su objetivo, porque, eventualmente, se encontraron maneras de superarlas.
Por si fuera poco, tienen un gran potencial para generar injusticias. Como se han hecho importantes avances en el poder de procesamiento y como las tecnologías modernas están presentes en prácticamente todos los aspectos de nuestra vida, estas inquietudes son más válidas que nunca.
Por ejemplo, los especialistas en tecnología han podido desarrollar sistemas altamente avanzados aprovechando bases de datos de información personal en expansión (en muchos casos, esta información no se obtuvo con el consentimiento de la persona). En la época de Bertillon, las autoridades que utilizaban sus métodos estaban muy limitadas por la cantidad de criminales que tenían. Además, tenían que pasar por el tedioso proceso de medir, documentar y almacenar los resultados manualmente. En comparación, las agencias federales actuales, como el FBI, cuentan con bases de datos masivas de imágenes tomadas con otros propósitos, como verificaciones de antecedentes laborales o videos de cámaras de vigilancia. Además, los programas de inteligencia artificial, como DeepFace, de Facebook, aprovechan las miles de imágenes que subimos a internet para aprender y mejorar sus técnicas.
En esta época también es más fácil buscar, clasificar y transferir gran cantidad de datos biométricos, y nunca sabemos con certeza qué información se comparte entre dispositivos personales, corporaciones y agencias gubernamentales de todos los niveles. Los documentos que filtró Edward Snowden revelaron que la Agencia de Seguridad Nacional había estado recolectando millones de caras de Internet —de correos, textos, redes sociales, videoconferencias, etc.— como parte de sus programas de reconocimiento facial. La noticia de que Apple compartirá datos de Face ID con desarrolladores externos ha aumentado las sospechas del potencial uso indebido de esa tecnología (incluso después de que Apple afirmara que estos desarrolladores no podrán usar la información para publicidades, marketing o elaboración de perfiles). Esto es especialmente alarmante teniendo en cuenta que todavía tenemos ideas anacrónicas sobre la privacidad, incluso ahora que los algoritmos revelan cada vez más cosas sorpresivas y aterradoras sobre nosotros a partir de nuestras fotografías.
¿Y cuánto tiempo durará esta “moda” de tecnologías de reconocimiento facial? No es fácil saberlo, pero esto parece ser tan solo el comienzo: los gobiernos de Estados Unidos y de Emiratos Árabes Unidos han comenzado a realizar escaneos de reconocimiento facial a viajeros internacionales en ciertos aeropuertos. Con el éxito relativo que ha tenido el lanzamiento de Face ID de Apple, parece que este tipo de sistemas será implementado muy pronto en muchos más dispositivos personales. Pero si algo nos ha enseñado la historia, es que todavía estamos a tiempo de establecer protecciones para evitar el abuso y el uso indebido de estas tecnologías.
Este artículo es publicado gracias a una colaboración de Letras Libres con Future Tense, un proyecto de Slate, New America, y Arizona State University.
is a historian of technology and lecturer at Yale University and Catholic University of Chile.