Una pesadilla. Esas fueron las palabras que usó Guillermo Federico Ibarrola para describir lo que le tocó padecer la última semana a causa de un error del sistema de reconocimiento facial que adoptó la Policía de la Ciudad para dar con personas que tienen pedido de captura. El sistema de inteligencia artificial -que procesa las imágenes de 300 cámaras de seguridad instaladas por el Gobierno porteño y las contrasta con las del registro de Consulta Nacional de Rebeldías y Capturas (Conarc)- tiene además del margen de error tecnológico un problema grave con la carga de datos, mucho de ellos erróneos.
El de Guillermo fue un caso extremo: estuvo detenido seis días y casi es trasladado a un penal por un delito que nunca cometió. Ayer a última hora, la fiscalía que intervino en el caso ordenó su liberación y le compró un pasaje de micro para volverse a su casa.
“Fue un error de la máquina”
“Nunca pensé que me iba a tocar vivir algo sí. Me tocó a mí pero le puede tocar a cualquiera. Fue un error de la máquina”, Guillermo habla desde la terminal de Retiro adonde llegó en micro después de haber sido traslado al juzgado de Bahía Blanca. El sábado pasado, en esa misma estación fue detenido por error. Su rostro apareció en el sistema de reconocimiento facial relacionado a un caso de robo agravado ocurrido en 2016 en la ciudad de Bahía Blanca.
Sin poder creer lo que le decían los efectivos, Guillermo comenzó a repetir lo que estaba seguro: nunca había estado en Bahía Blanca y nunca había cometido ningún delito. “Dos policías se me acercan, me detienen, me piden el DNI y me dicen que los acompañe. Yo pensé que me iban a pedir que saliera de testigo de algo pero me dicen que quedaba demorado por una causa por robo agravado. Me llevan detenido y pasaban los días y nadie me decía nada, nadie me explicaba nada”, contó desde Retiro.
Hoy la sensación de Guillermo es de alivio, en las breves declaraciones que brindó a los medios desde la estación repite una y otra vez: “Me podían haber arruinado la vida”. Lo dice porque durante los seis días que pasó demorado nadie le daba una explicación ni información concreta. Solo le decían que iba a ser trasladado a un penal.
“Ayer mientras me estaban trasladando le sonó el teléfono a la policías. Era la fiscal que preguntaba si me estaban llevando esposado. Los policías responden que sí porque me trasladaban en calidad de detenido. Parece que ahí les dice que me cuiden y que me saquen las esposas. Me hicieron poner los cordones y cambiaron el trato, me ofrecieron café y comida. Cuando llegué a la fiscalía me explican que fue todo un error y la fiscal me compra un pasaje para volver en micro”, contó a A24.
Efectivamente el hombre buscado por la Justicia era otro: Guillermo Walter Ibarrola. Otro nombre y otro número de DNI. Pero el sistema de reconocimiento facial activó el alerta de todos modos. El error se da en medio de las críticas que recibió el sistema por los “falsos positivos”, aunque desde la Policía de la Ciudad sostienen que el margen de error es sólo del 3 por ciento.
El gobierno porteño defiende su sistema
Marcelo D’Alessandro, secretario de Justicia y Seguridad de la Ciudad de Buenos Aires, defendió el sistema instalado por la policía porteña y explicó que este caso se trató de otro problema, igual o tanto más grande que el tecnológico: los errores de carga de los juzgados y fiscalías de todo el país. En este caso, dice, el DNI cargado en el registro del Ministerio de Justicia estaba mal y por eso el reconocimiento se hizo sobre la persona equivocada.
“Hay un error de interpretación y todos apuntan al sistema cuando en verdad lo que hubo fue un error de carga de los datos en el Conarc. Hay muchos errores de carga. Si al hombre le hubieran pedido el documento en la ruta también lo paraban, no fue un error del sistema”, se defendió D’Alessandro.
El funcionario explicó que el sistema reconoce los rostros de los documentos cargados en el registro de personas con pedidos de captura. Al estar mal cargado el DNI, algo que en este caso habría sido un error en la diligencia de la investigación de la policía local de Bahía Blanca, el sistema identificó al hombre equivocado. “Se quiere poner en duda al sistema y el problema es otro”, insiste el funcionario, que reafirmó que el porcentaje de “falsos positivos”, es decir, cuando el sistema falla, no supera el 3 por ciento.
El sistema de reconocimiento facial incorporado por la fuerza porteña comenzó a funcionar hace pocos meses; en este tiempo identificó a 1.300 personas. De ese número, sólo 300 quedaron detenidas por ser autores de delitos graves. El resto, depende cada caso. No está claro cuántos fueron los errores producto de la incongruencia en la carga, como el de Guillermo.
“En el pedido de captura los juzgados cargan de todo, hasta casos de rebeldía. El sistema los identifica, nosotros detenemos y los comunicamos con el juzgado que puede ser de cualquier provincia del país. Muchas veces nos piden que le notifiquemos que tienen una causa trámite en la que deben presentarse y nada más”, agregó el D’Alessandro.
“La base de datos está muy mal confeccionada”
Desde el Centro de Estudio Legales y Sociales (CELS) remarcaron que existen varias dudas alrededor de este tipo de sistemas en todo el mundo. Algunas relativas al margen de error que, aseguran, suele ser mucho más alto que el reconocido por el gobierno porteño, y otras relacionadas con la cuestión de fondo: el nivel desproporcionado de vigilancia.
“El sistema tiene varios errores. En primer lugar son las fallas del software sobre las que el Gobierno dice que tiene un margen muy bajo como no existe en ningún lugar del mundo. El otro es que la base de datos está muy mal confeccionada, hay mucha gente que no debería figurar. Y otro es que se está deteniendo a personas por causas muy viejas que ya incluso están cerradas”, explicó a Página/12 Andrés López Cabello, abogado del equipo de Litigio y Defensa Legal del CELS.
Como ejemplo de estas fallas, López Cabello contó que el sistema de reconocimiento facial detuvo a una mujer que había sido llamada como testigo en una causa cerrada hace varios años. La notificación para testificar nunca le llegó, la mujer nunca se presentó a testificar y por eso fue declarada en rebeldía. Fue detenida hace poco aunque su detención quedó sin efecto a las horas.
Por último, el abogado remarcó el problema de fondo que plantea la utilización de sistemas como el de reconocimiento facial. “Es la respuesta desproporcionada que tienen estos sistema de vigilancias
en nuestras vidas. En su última acordada, la Corte ordenó ser muy estrictos en cuanto
al pedido de escuchas por ejemplo y eso porque no se prevé un Estado
omnipresente destinado a controlar a la sociedad bajo un estado constante de sospecha”, opinó.
Fuente: https://www.pagina12.com.ar/209910-seis-dias-arrestado-por-un-error-del-sistema-de-reconocimien