Saltar al contenido

El reconocimiento facial todavía tiene dificultades para identificar los rostros negros: informe

fossbyte-technology-news

El reconocimiento facial ha sido utilizado por los cuerpos policiales locales en todo Estados Unidos. El FBI lo usa para escanear la base de datos del DMV y la policía lo aplica para identificar y arrestar a personas en las protestas.

Un análisis de los puntos de referencia del Instituto Nacional de Estándares y Tecnología (NIST) de EE. UU. Realizado por VentureBeat muestra las discrepancias del reconocimiento facial. El informe señala que tiene una mayor tasa de error cuando se trata de identificar caras negras. Tales errores conducen a sesgos cuando se trata de personas de color.

Los puntos de referencia del NIST analizados en el informe miden las tasas en las que "los hombres negros son identificados erróneamente como hombres blancos", "las mujeres blancas son identificadas erróneamente como mujeres negras" y viceversa. Estas medidas determinan la tasa de coincidencia falsa (FMR) o la tasa de error. El punto de referencia utiliza 17 años de corpus de fotos policiales para probar los algoritmos.

Los proveedores envían algoritmos optimizados para los puntos de referencia del NIST. Sin embargo, las versiones que operan en palabras reales son diferentes y no tan precisas en conjunto. Un FMR de 0,0001 significa una identidad errónea de cada mil, mientras que un FMR de .1 significa uno de cada diez.

Portland prohíbe el reconocimiento facial

El reconocimiento facial prohibido en Portland

Uno de los desarrollos recientes en el uso del reconocimiento facial es la prohibición de su uso impuesta por las autoridades de Portland. A través de un par de ordenanzas, las autoridades han prohibido a las autoridades locales y a las empresas privadas su uso en áreas públicas.

El borrador de las ordenanzas también menciona la posibilidad de "prejuicios contra los negros, las mujeres y las personas mayores". Jo Ann Hardesty, Comisionada del Concejo Municipal dijo que "nadie debería tener algo tan privado como su rostro fotografiado, almacenado y vendido a terceros para obtener ganancias".

APRENDER A CODIFICAR ANUNCIO CUADRADO

Errores en el reconocimiento facial

FMR de reconocimiento facial en los algoritmos de RankOneFMR de reconocimiento facial en los algoritmos de RankOne

Los parámetros mencionados anteriormente son útiles cuando miramos a los proveedores que suministran tecnología de reconocimiento facial a diferentes partes del mundo. Los proveedores de servicios de reconocimiento facial han aumentado para llenar el espacio dejado por gigantes tecnológicos como Microsoft, Amazon e IBM.

Compañías como TrueFace, que está preparada para entregar reconocimiento facial a una base de la Fuerza Aérea de EE. UU. El próximo año, son parte del análisis. El algoritmo de esta empresa tenía un FMR de 0,15 a 0,20, identificando erróneamente a las mujeres negras.

Otra empresa llamada RealNetworks implementa el reconocimiento facial para cámaras corporales y drones a través de su subsidiaria SAFR. También se registraron altas tasas de error en su algoritmo, especialmente en los casos de identificación errónea de un hombre negro como otro.

¿Existe un patrón?

La respuesta es sí. Existe un patrón definido cuando se mira el FMR en los algoritmos de reconocimiento facial de diferentes empresas. Este patrón puede conducir a una nueva forma de prejuicio contra las personas de color. Todos los algoritmos registraron un error cuando "identificaron erróneamente a una mujer negra con otra mujer negra". Los algoritmos también "identificaron erróneamente a un hombre negro con otro hombre negro".

anuncio de banner cuadrado de 340x296 de cursos de linux (1)

Tales errores pueden parecer triviales cuando se ven como un error en mil casos, pero la escala de tales errores también aumenta con la población de ciudades enteras.