Menu

Proyecto Visión 21

Audio

Zona Tecnológica

La inteligencia artificial discrimina contra latinos, minorías y personas transgénero

Francisco Miraval

14 de octubre de 2019

Los programas de reconocimiento facial tienen problemas para determinar si un cierto rostro es de una persona transgénero, afirma un reciente estudio. Y otro estudio indica que la inteligencia artificial de reconocimiento de rostros clasifica a latinos “de manera cuestionable”. En otras palabras, la inteligencia artificial tiene prejuicios contra esos dos grupos. 

En el primer caso, una investigación realizada por la Universidad de Colorado en Boulder (EEUU) dice que el programa común de reconocimiento facial puede clasificar el género de hombres y mujeres con notable precisión. Pero si esa cara pertenece a una persona transgénero, el sistema se equivoca más de un tercio del tiempo.

“Hemos encontrado que los servicios de análisis facial realizan constantemente peor en las personas transgénero, y eran incapaces universalmente para clasificar los géneros no binarios”, dijo Morgan Klaus Scheuerman, estudiante de doctorado en el departamento de Ciencias de la Información de esa universidad. “Si bien hay muchos tipos diferentes de personas, estos sistemas tienen una visión muy limitada de lo que se ve como el género.”

El estudio llega en un momento en que las tecnologías -que análisis facial utilizan cámaras ocultas para evaluar y caracterizar ciertas características acerca de un individuo-se están convirtiendo cada vez más frecuente, incrustado en todo, desde aplicaciones de teléfonos inteligentes de citas y quioscos digitales en los centros comerciales a la seguridad del aeropuerto y de los sistemas de vigilancia del orden público.

Investigaciones anteriores sugieren que tienden a ser más precisa al evaluar el sexo de los hombres blancos, pero identifican incorrectamente las mujeres de color tanto como un tercio del tiempo.

“A medida que nuestra visión y nuestra comprensión cultural de lo que es el género ha evolucionado, los algoritmos de conducir nuestro futuro tecnológico no tienen. Eso es muy problemático”, dice el estudio.

Otro estudio, a cargo de los artistas Trevor Paglen y Kate Crawford (que estudian la conexión entre ideología y tecnología) encontraron que los programas de reconocimiento sexual con “prejuiciosos, sexistas e incluso racistas”. 

Uno de esos programas es ImageNet Roulette, creado en 2009 en Princeton y que analiza imágenes para luego catalogar a las personas. Y en el caso de los latinos, las descripciones más frecuentes fueron “huérfano” y “sospechoso de violación”. (Cabe mencionar que esas categorías no formaban parte del programa original). 

El estudio demostró, según Paglen y Crawford, que “cuán prejuiciosos pueden ser los algoritmos de la inteligencia artificial”. 

Zona Tecnológica (eBook)