Varios incidentes que ponen en cuestión la precisión de los sistemas de reconocimiento facial para seguridad y vigilancia, dejan en claro que el uso de esta tecnología requerirá de algunos años más de perfeccionamiento y orden legal.
Los fallos que se han presentado en relación con el uso de esta tecnología han reabierto una discusión sobre los derechos de los ciudadanos, la privacidad y la utilización de las cámaras de seguridad con tecnologías de reconocimiento facial.
En un reciente artículo de The Guardian se presenta la historia de la estadounidense Porcha Woodroof, madre de tres niños que estando en el octavo mes de embarazo de su tercer hijo, fue arrestada en su casa (Detroit, Michigan) por cargos de asalto y robo de autos.
Después de once horas de interrogatorios fue dejada en libertad con una fianza de más de 100.000 dólares. De inmediato tuvo que trasladarse a un hospital, pues se encontraba en estado de deshidratación por el estrés y la angustia de verse enfrentada a la cárcel por delitos que no cometió.
Un mes después se retiraron todos los cargos por falta de evidencia. La cámara de video de una estación de combustibles la había identificado a ella como una ladrona de autos, aunque no estuvo allí en el día del delito y en el video no se ve su estado de embarazo.
Adicionalmente, los cargos se presentaron porque la víctima habría seleccionado la imagen de Porcha (margen de error) para ‘confirmar’ que se trataba de la delincuente. Según algunos cálculos de Pew Research Center, hay por lo menos 3.100 entidades en Estados Unidos que usan esta clase de herramientas.
Sin embargo, este no es un caso aislado. En Estados Unidos se han presentado por lo menos seis incidentes de personas que son falsamente acusadas de delitos que no cometieron al ser confundidos por sistemas de reconocimiento facial. En todas las historias se trata de ciudadanos afrodescendientes.
Otros países han seguido el ejemplo. China ha usado estas herramientas para identificar a varios protestantes y Francia ha dado luz verde para que sus fuerzas policiales usen sistemas de reconocimiento facial en los operativos de seguridad para los juegos olímpicos de Paris el próximo año.
Dos problemas aún por resolver
Para superar estos incidentes y evitar los ‘falsos positivos’ generados por errores de identificación causados por estos sistemas, es indispensable superar dos grandes barreras: una relacionada con el entrenamiento y otra con los sesgos.
Cómo sucede con otros sistemas impulsados por inteligencia artificial, las herramientas de reconocimiento facial son tan buenas como la información que se utilizó para entrenarlas. Sus resultados dependen directamente de la calidad en el proceso de entrenamiento de la IA.
El segundo gran problema es el de los sesgos. Dependiendo de las fuentes que se usen en el entrenamiento, las IA pueden desarrollar pensamientos ideológicamente más inclinados a la derecha o la izquierda del espectro político. Este no es un asunto menor.
El problema de la discriminación racial en el uso de las herramientas de reconocimiento facial se viene estudiando desde hace varios años, según detalla esta publicación de la Universidad de Harvard. Dado que las IA son entrenadas con fotos (en su mayoría) de personas blancas, encuentran graves problemas a la hora de identificar con precisión a los afrodescendientes.
Incluso, aunque estos sistemas se refinaran y lograran una precisión absoluta, esto seguiría representando un grave peligro para las libertades civiles y los derechos humanos. Las dictaduras podrían usarlos para identificar a los no simpatizantes y los espacios públicos perderían todo el anonimato que hoy podrían tener.
Amazon Rekognition y Clearview son algunos de los sistemas utilizados para el reconocimiento facial. Sin embargo, esta última ha sido prohibida en países como Italia y Alemania; en Estados Unidos no puede vender información de reconocimiento facial a empresas privadas.
¿Qué hace falta para mejorar estos sistemas?
Optimizar los procesos de entrenamiento de las IA será esencial para reducir los incidentes. Más datos y con mejor calidad posiblemente ayudarán, así como trabajar en el tema de los sesgos ideológicos.
El uso responsable de la IA va mucho más allá de garantizar su buen funcionamiento. Un enfoque ético, que mantenga el orden sin sacrificar los derechos, puede ser un primer paso a un uso más preciso de estas herramientas.