El lado oscuro del reconocimiento facial

Asรญ como el uso de las tecnologรญas de reconocimiento facial aumenta, es importante que crezca tambiรฉn la conciencia sobre los peligros a la privacidad que estas implican.
Aร‘ADIR A FAVORITOS
ClosePlease loginn

Hace un par de semanas circulรณ una nota en la que se afirmaba que un estudio realizado por la Universidad de Stanford habรญa demostrado que una inteligencia artificial entrenada para el reconocimiento facial podรญa detectar, a partir de la identificaciรณn de ciertos rasgos, la preferencia sexual de una persona. Las reacciones adversas no se hicieron esperar. GLAAD y the Human Rights Campaign, organizaciones dedicadas a la defensa de los derechos LGBTQ, emitieron un comunicado conjunto en el que afirmaron que el estudio estรก โ€œpeligrosamente equivocadoโ€ y que la โ€œtecnologรญa no puede identificar la orientaciรณn sexual de las personas [sino reconocer] un patrรณn dentro de un subgrupo de personas blancas que lucen similaresโ€.

A primera vista, esta tecnologรญa suena a una vuelta al siglo XVIII y a la ya superada teorรญa de Antropologรญa Criminal sobre el delincuente nato. Cesare Lombroso, su principal exponente, postulaba en el libro El hombre delincuente que un criminal y el tipo de crimen al que se dedicara podรญan ser identificados a partir de sus rasgos fรญsicos (por ejemplo, seรฑalรณ que los pirรณmanos tenรญan piel suave, apariencia infantil y cabellera lacia y gruesa, casi femenina). Considerada una mezcla de supersticiรณn y racismo disfrazada de ciencia, esa teorรญa fue dejada atrรกs.

Como la antropologรญa criminal, la identificaciรณn de la orientaciรณn sexual a partir de la mera apariencia, aunque sea por medio de una inteligencia artificial, parecerรญa estar cimentada en prejuicios. El detalle es que uno de los propรณsitos de la investigaciรณn era exponer los riesgos de privacidad que implica el software de reconocimiento facial. ยฟEntonces todo se tergiversรณ? Veamos.

En primer lugar, el estudio, cuya versiรณn final aรบn no es publicada, reconoce que la relaciรณn entre fisonomรญa y carรกcter se volviรณ tabรบ por la forma en que fue utilizada anteriormente para discriminar, pero seรฑala que existen investigaciones (cuestionables, por cierto) que respaldan esa relaciรณn desde una perspectiva no tendiente al racismo. Tambiรฉn menciona la hipรณtesis de que el nivel de hormonas prenatales tiene efectos en el comportamiento, la apariencia y la orientaciรณn sexual y que, de acuerdo con esta, la morfologรญa facial y expresiones de las personas gay tienden a ser atรญpicas de su gรฉnero biolรณgico (de nuevo, todo cuestionable).

Con base en lo anterior, el estudio dice que existen caracterรญsticas faciales tรญpicas de las personas gay, mismas que no suelen ser adecuadamente identificadas por los humanos, pero pueden serlo por una inteligencia artificial. En el estudio, una red neuronal profunda fue alimentada con una muestra de 35,326 fotografรญas de perfil pรบblicas de sitios de citas y de Facebook pertenecientes a personas abiertamente gay y heterosexuales de la cual se extrajeron los rasgos faciales de cada imagen. El algoritmo fue diseรฑado para identificar la orientaciรณn sexual, que los investigadores conocรญan de antemano, pues habรญa sido manifestada por las personas cuya imagen se usaba. La inteligencia artificial resultรณ certera en un 81% para hombres y 71% para mujeres; en contraste, los humanos fueron precisos en un 61% y 54%, respectivamente. Al emitir sus conclusiones pidieron a los lectores no malinterpretar los resultados expuestos y reconocieron que la muestra carecรญa de variedad, ya que se limitaba a personas estadounidenses caucรกsicas.

ยฟEntonces para quรฉ todo esto y por quรฉ utilizaron fotografรญas pรบblicas? Una de las conclusiones fue que, a diferencia de una red neuronal profunda, los humanos son muy poco precisos al tratar de identificar personas gay. Pero entre todo el ruido que generรณ el estudio debido a su marco teรณrico, casi quedรณ olvidado uno de sus objetivos: advertir que a travรฉs de la recolecciรณn de fotografรญas pรบblicas en redes sociales, y con ayuda de herramientas comunes de machine learning, gobiernos y empresas podrรญan realizar este tipo de identificaciones de datos personales sensibles, tales como la preferencia sexual. Esta posibilidad resulta especialmente preocupante en paรญses donde la homosexualidad estรก prohibida, y es motivo de alerta en general porque no precisa de una recolecciรณn invasiva de imรกgenes, puesto que puede realizarse con fotografรญas pรบblicas o fรกcilmente disponibles. Los autores del estudio hicieron un llamado a los encargados de las polรญticas pรบblicas, a las comunidades gay y a la sociedad en general para que estรฉn conscientes del riesgo de privacidad que el reconocimiento facial puede representar.

De ahรญ saltamos a una de las caracterรญsticas mรกs novedosas del reciรฉn lanzado iPhone X: el reconocimiento facial para el desbloqueo del telรฉfono. โ€œUna vez que te conoce, siempre te reconoceโ€, dice Apple. Muy probablemente, esta tecnologรญa no tardarรก en ser adoptada por otras marcas de telรฉfonos inteligentes. Apple tendrรก una envidiable base de datos biomรฉtricos de todos sus usuarios, aunque seguramente la cantidad y tipo de datos a los que tiene acceso y puede almacenar causarรก zozobra.

El reconocimiento facial por sรญ solo no es una herramienta nueva. Ha originado polรฉmicas de racismo y falta de precisiรณn. Apenas el mes pasado tuvo lugar un incidente en el que un hombre que iba trotando empujรณ a una mujer al arroyo vehicular en Londres. El sistema de cรกmaras de vigilancia identificรณ a un sujeto que fue arrestado y despuรฉs puesto en libertad porque al momento del incidente se encontraba en Estados Unidos: se tratรณ de una identificaciรณn errรณnea. Las imprecisiones de los algoritmos pueden darse por el tipo de datos con los que son entrenados. Apple aprendiรณ de los errores ajenos y ha utilizado muestras amplias y diversas para entrenarlos, evitando asรญ que sean tendenciosos. Otros sistemas de reconocimiento son utilizados en varios aeropuertos para comparar el rostro de la persona con el de la fotografรญa de su pasaporte. Tambiรฉn ha tenido usos cuestionables por parte de los gobiernos de Rusia, China y Estados Unidos para identificar a personas que acuden a protestas, para avergonzar pรบblicamente a los peatones que cruzan las calles donde no deben y para vigilancia extrema, respectivamente. En Mรฉxico, los datos biomรฉtricos se consideran datos personales, pero no sensibles, aunque existiรณ una iniciativa de reforma a la Ley federal de protecciรณn de datos en posesiรณn de los particulares para considerarlos como tales.

Probablemente se popularice el uso del reconocimiento facial. Con ello debemos estar conscientes de los peligros de privacidad que implica, dadas las posibilidades que permite de la mano de la inteligencia artificial: extrapolar informaciรณn sensible a partir de datos que de entrada no lo son.

 

 

 

 

 

 

+ posts

Naciรณ el mismo aรฑo que se estrenรณ Blade Runner. Abogada, especialista en tecnologรญa y protecciรณn de datos.


    ×

    Selecciona el paรญs o regiรณn donde quieres recibir tu revista: