Un simple parche de colores permite engañar a las cámaras de vigilancia con IA para que no detecten personas en una imagen

Un simple parche de colores permite engañar a las cámaras de vigilancia con IA para que no detecten personas en una imagen

Tres investigadores belgas, de la Universodad de Lovaina, han desarrollado un medio (basado en la técnica conocida como de ‘muestras antagónicas’) para engañar a las cámaras de vigilancia equipadas con inteligencia artificial y lograr que no sean capaces de reconocer a personas en la imagen.

«La idea detrás de esta investigación radica en ser capaz de eludir los sistemas de seguridad que […] generan una alarma cuando una persona entra en el campo de visión de una cámara».

¿Qué son las ‘muestras antagónicas’?

El auge de las redes neuronales convolucionales (CNN) se ha traducido en grandes éxitos en el campo de la visión artificial. El problema es que, en paralelo a la mejora de su precisión, ha ido disminuyendo su interpretabilidad: a estas alturas resulta ciertamente difícil saber, por ejemplo, por qué una red identifica a una persona como tal.

Estos son los métodos con los que intentan sortear el reconocimiento facial los defensores de la privacidad

Fundamentalmente, la red neuronal aprende cuál es el aspecto de una persona «en abstracto» viendo muchas fotos de personas reales. Y si queremos evaluar su efectividad, no tenemos más opción que someter las mismas imágenes a dos procesos de clasificación paralelos: por parte de CNNs y de humanos.

Pero esto presenta un problema: en esas evaluaciones no se utilizan imágenes diseñadas específicamente para engañar al sistema; lo que llamamos muestras antagónicas, que incorporan patrones específicos que no engañan al ojo humano pero sí a las redes neuronalesresponsables de la visión artificial.

Leer mas …