top of page

La problemática de la tecnología de reconocimiento facial en casos de arresto injusto

El uso de software de reconocimiento facial llevó a la policía de Detroit a arrestar injustamente a Porcha Woodruff, una mujer embarazada de 32 años, por robo y secuestro de automóviles. A pesar de estar embarazada de ocho meses, fue detenida durante 11 horas, interrogada y se le confiscó su iPhone como evidencia antes de ser liberada. Este incidente es el último de una serie de arrestos erróneos debido al uso de la tecnología de reconocimiento facial, la cual muchos críticos afirman que no es confiable.
El error es especialmente notable porque las imágenes de vigilancia utilizadas para identificar erróneamente a Woodruff no mostraban a una mujer embarazada y Woodruff estaba visiblemente embarazada en el momento de su arresto. El incidente comenzó con una búsqueda automatizada de reconocimiento facial realizada por el Departamento de Policía de Detroit. Un hombre que fue robado denunció el crimen, y la policía utilizó DataWorks Plus para comparar las imágenes de video de vigilancia con una base de datos de fotografías de personas detenidas. La fotografía de Woodruff de 2015, tomada durante un arresto anterior no relacionado, fue identificada como una coincidencia. Posteriormente, la víctima confirmó erróneamente su identificación en una rueda de reconocimiento fotográfica, lo que llevó a su arresto.
Woodruff fue acusada en un tribunal de robo y secuestro de automóviles antes de ser liberada bajo una fianza personal de $100,000 USD. Un mes después, los cargos en su contra fueron desestimados por el fiscal del condado de Wayne. Woodruff ha presentado una demanda por arresto injusto contra la ciudad de Detroit y el jefe de policía de Detroit, James E. White, ha declarado que las acusaciones son preocupantes y que se está tomando el asunto en serio.
Según un informe reciente, este incidente es el sexto caso reciente reportado en el que una persona fue falsamente acusada como resultado de la tecnología de reconocimiento facial utilizada por la policía y el tercero que tuvo lugar en Detroit. Las seis personas falsamente acusadas son afroamericanas. Según los datos revisados, el Departamento de Policía de Detroit realiza un promedio de 125 búsquedas de reconocimiento facial al año, casi exclusivamente en hombres afroamericanos. El arresto de Woodruff y la tendencia reciente de arrestos erróneos han provocado un nuevo debate sobre la fiabilidad de la tecnología de reconocimiento facial en las investigaciones criminales. Los críticos afirman que esta tendencia resalta las debilidades de la tecnología de reconocimiento facial y los riesgos que plantea para las personas inocentes.
Esto es especialmente preocupante para las personas de piel oscura. Un artículo publicado en el sitio web de la Universidad de Harvard en 2020 por Alex Najibi detalla la discriminación racial generalizada dentro de la tecnología de reconocimiento facial, destacando investigaciones que demuestran problemas significativos para identificar con precisión a personas afroamericanas.
Un informe de 2022 de Georgetown Law sobre el uso del reconocimiento facial en la aplicación de la ley encontró que "a pesar de 20 años de confiar en el reconocimiento facial como técnica de investigación forense, la fiabilidad del reconocimiento facial tal como se usa típicamente en las investigaciones criminales aún no se ha establecido" .
Además, una declaración de Georgetown sobre su informe de 2022 afirmó que como herramienta de investigación biométrica, el reconocimiento facial "puede ser particularmente propenso a errores derivados de juicios humanos subjetivos, sesgos cognitivos, evidencia de baja calidad o manipulada y tecnología de bajo rendimiento" , y que "no funciona lo suficientemente bien como para cumplir de manera confiable los propósitos para los cuales las propias agencias de aplicación de la ley desean utilizarlo". La baja precisión de la tecnología de reconocimiento facial se debe a múltiples factores, incluidos algoritmos no probados, sesgos en los conjuntos de datos de entrenamiento, diferentes ángulos de las fotografías y la utilización de imágenes de baja calidad para identificar a los sospechosos. Además, la estructura facial no es tan única como se cree, especialmente cuando se combina con otros factores, como datos de baja calidad. Esta baja tasa de precisión parece aún más problemática cuando se combina con un fenómeno llamado "sesgo de automatización" , que es la tendencia a confiar en las decisiones de las máquinas a pesar de la evidencia potencial en contrario.
Estos problemas han llevado a algunas ciudades a prohibir el uso de esta tecnología, incluyendo San Francisco, Oakland y Boston. Sin embargo, según un informe de 2022, algunas ciudades están comenzando a reconsiderar las prohibiciones al reconocimiento facial como una herramienta de lucha contra el crimen debido a "un aumento en la delincuencia y una mayor presión por parte de los desarrolladores". En el caso de Woodruff, su experiencia la dejó hospitalizada por deshidratación y profundamente traumatizada. Su abogado, Ivan L. Land, enfatizó a The Times la necesidad de que la policía realice una investigación adicional después de una coincidencia de reconocimiento facial, en lugar de depender únicamente de la tecnología. "Es aterrador. Estoy preocupado", dijo. "Siempre hay alguien que se parece a otra persona".

La problemática de la tecnología de reconocimiento facial en casos de arresto injusto

El uso de software de reconocimiento facial llevó a la policía de Detroit a arrestar injustamente a Porcha Woodruff, una mujer...

bottom of page