Cámaras que identifican a mujeres en peligro escaneando sus rostros

En la India hay un problema muy serio relacionado con la seguridad, principalmente con la del sexo femenino. Hace años hablamos de un collar que las mujeres podían usar para avisar a la policía de que estaban siendo perseguidas o acosadas en las calles, y ahora vamos más allá con un sistema de reconocimiento de rostros que identifica situaciones de peligro.

Se trata de una plataforma implantada por la policía de la ciudad de Lucknow, en India, con un sistema de reconocimiento facial respaldada por cámaras de seguridad que leerán las expresiones de las mujeres en peligro y alertarán a la estación de policía más cercana.



Lo comentaron en Twitter, y quieren reducir los casos de acoso a mujeres, y para ello lo implantarán en 200 puntos críticos donde el movimiento de mujeres era máximo en la ciudad y desde donde se recibieron la mayoría de las denuncias. La policía desplegará inicialmente cinco cámaras basadas en IA para reconocer la expresión de las ciudadanas.

El objetivo es que las mujeres no tengan que llamar a la policía, las cámaras ya verán en sus rostros que están en peligro, y enviarán las patrullas lo antes posible.

Lógicamente, la polémica está servida. La grabación de expresiones faciales con cámaras de seguridad podría ser errónea, y la policía puede acudir a un punto en el que una mujer no está teniendo ningún problema. Por otro lado provoca un acoso innecesario a las imágenes de la población por parte de la policía y una situación de vigilancia excesiva.

Por otro lado, no siempre que una persona está siendo acosada muestra una expresión de pavor en el rostro, y no siempre que expresamos miedo es porque estamos en peligro. Si estamos hablando con alguien, por ejemplo, y ponemos cara de susto o de miedo por el tema de la conversación, no queremos que la policía se presente en dos minutos preguntando si estamos bien (o sí, tendremos que esperar algunas semanas para ver el éxito del proyecto).

Sobre el tema de privacidad de datos y acceso a las imágenes por terceros, las instituciones responsables no se han pronunciado.

Fuente: Link