El avance tecnológico no solo sirve para hacernos la vida más fácil, también permite crear sistemas de seguridad más avanzados y dotar a los cuerpos policiales de nuevas herramientas para cumplir mejor su cometido. Axon es una empresa que aboga por la innovación tecnológica para las fuerzas de seguridad, y la inteligencia artificial, unida al reconocimiento facial, puede ser un importante nuevo elemento dentro del equipo policial.

Esto, que parece sacado de Robocop o Black Mirror, no es algo nuevo. Hace unas semanas os contamos que la policía china ya estaba utilizando unas nuevas gafas con sistema de reconocimiento facial que permite escanear en tiempo real a los viandantes y reconocer a sospechosos o criminales que estén en el sistema. Es más, ya se ha detenido a alguien en China gracias a las numerosas cámaras fijas colocadas en algunos puntos del país (más de 600 millones, de momento) que utilizan la tecnología de reconocimiento facial.

Ventajas y peligros del reconocimiento facial

Ahora, Axon, anteriormente conocida como Taser International, se ha metido de lleno en el terreno del reconocimiento facial en pos de mayor seguridad. Diferentes estados, como Los Angeles, Chicago o Washington, cuentan con las Axon Body como parte del equipo de algunas agencias de seguridad estatales. Se estima que se han grabado 20 millones de gigabytes que se suben a servicios en la nube para poder ser compartidos rápidamente entre las fuerzas de seguridad. Sin embargo, es solo vídeo y se quiere ir un paso más allá.

La IA es una de las tendencias de 2018 y se puede utilizar de muy diversas formas, desde ayudar a mejorar una fotografía, como el Huawei P20, hasta ser un asistente más inteligente. También, obviamente, puede ‘’aprender’’ y utilizarse para fines policiales. Y es que, la mayoría de los sistemas de reconocimiento facial dependen de algoritmos de deep learning y las cámaras Axon Body 2 podrían recibir una actualización de software para ser capaces de utilizar esta tecnología. 

Aunque la compañía aseguró en el pasado que esta tecnología podría ser muy útil para casos extremos, aún no se plantean probar estos dispositivos sobre el terreno. Eso sí, han establecido una reunión para realizar una especie de ‘’tabla ética de la IA’’, una especie de guía con normas morales a seguir por quienes utilizan dispositivos de reconocimiento facial.

Parece un primer paso hacia el uso de tecnología en el terreno en un país, Estados Unidos, en el que existe controversia sobre el uso de la fuerza policial. Por tanto, la intención de ‘’regular’’ una IA de reconocimiento facial para uso policial en suelo estadounidense ya ha motivado la respuesta por parte de 41 grupos de defensa de los derechos civiles.

Directamente, estos grupos califican la tecnología de reconocimiento facial como poco ética, alegando que ‘’ningún policía puede mitigar los riesgos de manera satisfactoria como para que el reconocimiento facial en tiempo real sea comercializable’’. Además, aluden, directamente, a los errores de la tecnología.

¿Qué pasa con los errores de identificación facial?

Ningún sistema de identificación está exento de errores y uno que actúa en tiempo real, con software que se va puliendo y que debe tomar ‘’decisiones’’ en un lapso de tiempo mínimo, y en escenarios con luz que puede no ser la ideal, tiene más probabilidades de fallar. Un estudio del MIT sacó a la luz que los diferentes algoritmos de reconocimiento facial de Microsoft, Megvii e IBM tuvieron una alta tasa de errores, sobre todo entre personas de etnias diferentes a la caucásica y mujeres. Es decir, la preocupación radica en el alto número de falsos positivos que la aplicación de estos sistemas podría ocasionar, lo que derivaría en más paradas policiales y arrestos para, por ejemplo, población afroamericana.

Además, la preocupación de los grupos de derechos civiles, tal y como han declarado a The Washington Post, tienen que ver con el exceso de fuerza policial. Según Laura Moy, del Centro de Privacidad y Tecnología de Georgetown, ‘’en un escenario en tiempo real en el que un policía esté armado, los riesgos asociados a una posible identificación errónea siempre serán mayores que cualquier posible beneficio’’.

Por otra parte, Steve Tuttle, uno de los representantes de Axon, ha declarado a The Verge que el objetivo es empezar a desarrollar, a partir de este momento, la confianza pública en los dispositivos que podrían empezar a popularizarse en unos años. Y es que, según Tuttle, ‘’en los próximos 5 años, los algoritmos de inteligencia artificial tendrán enormes habilidades’’.

Es decir, desde Axon son conscientes de que la sociedad civil puede mirar con recelo esta tecnología y buscan crear una especie de código ético para que los diferentes organismos que trabajan, o trabajarán, con el reconocimiento facial en cámaras policiales sigan un mismo único. Es, desde luego, un tema polémico, pero que también parece imparable y de ciencia ficción, con una policía interconectada mediante una IA de reconocimiento facial con una gigantesca base de datos que puede ser compartida en tiempo real.

[Fuente: The Verge; The Washington Post. Imagen: Axon]