El domingo 12 de noviembre pasado se conmemoró en Londres, Reino Unido, El Remembrance Day, una conmemoración por parte de veteranos, militares, ciudadanos y autoridades en homenaje a los caídos en las dos guerras mundiales.
El acto como tal es solemne y anual, pero en está ocasión desató polémica debido a que la policía metropolitana empleó un software de reconocimiento facial.
LEE: PROTECCIÓN DE DATOS PARA USUARIOS DE TRANSPORTE PRIVADO
El uso de este se debió a una prueba de las autoridades que no estaba vinculada con alguna amenaza terrorista o atentado de alguna clase. En las inmediaciones del memorial se colocaron carteles informando sobre el uso de las cámaras de reconocimiento facial. El fin era analizar los rostros de miles de concurrentes en busca de personas conocidas por su comportamiento obsesivo respecto a figuras públicas.
Los datos de estos individuos, alrededor de 50, fueron introducidos en el sistema de forma que el seguimiento biométrico en tiempo real pudiese avisar si las detectaba accediendo a la zona. No obstante, ninguno de los integrantes de la lista está en búsqueda y captura, por lo que agrupaciones de derechos civiles han denunciado un uso discriminatorio de la tecnología.
La posible vulneración de derechos por el uso incorrecto de la tecnología es lo que ha envuelto a estas pruebas por parte de las autoridades; Reino Unido no es el único país en donde el uso de las herramientas de este tipo ha originado controversia, en Canadá se ha utilizado preventivamente pero también ha recibido críticas. En China, el caso es más extremo, ya que el gobierno recurre a una inteligencia artificial y su sistema está integrado en las bases de datos de más de 50 ciudades del gigante asiático. Sin embargo, las autoridades chinas son conocidas por constantes violaciones a derechos humanos, por ello que se ha desatado la polémica sobre sí realmente se emplea para prevención del crimen o para mantener control sobre la población.