Este extraño "camuflaje" de IA puede evitar que el software de detección facial te identifique

El alcance de la detección facial que se utilizará para la vigilancia a gran escala apenas comienza a darse cuenta.

En septiembre de este año, Moscú conectó su red de CCTV a un sistema de reconocimiento facial. Nueva York planea implementar la detección facial en puentes y túneles. La base de datos de reconocimiento facial de Londres ha sido criticada por ir "mucho más allá de los propósitos de custodia", y Porcelana está llevando todo esto a un nivel completamente nuevo de vigilancia estatal total.

Pero la invención del barco también condujo a la invención del pirata. Se han lanzado una serie de proyectos que muestran cómo estos sistemas de detección pueden ser falsificados, eludidos o secuestrados. La última es una investigación de visión por computadora de la Universidad de Illinois, que usa camuflaje para engañar a la detección de objetos de redes neuronales.

Este método depende de “ejemplos adversarios”; una forma de atacar un sistema de aprendizaje automático con datos ligeramente modificados, a menudo imperceptibles para un humano, que son lo suficientemente diferentes como para que el sistema los clasifique erróneamente. en su papelJiajun Lu, Hussein Sibai y Evan Fabry explican que, "si existen ejemplos adversarios que podrían engañar a un detector, podrían usarse (por ejemplo) para crear maliciosamente riesgos de seguridad en carreteras pobladas de vehículos inteligentes".

detección_de_objetos

Para demostrar esto, el equipo creó “tres señales de alto antagónicas”, diseñadas para bloquear el tipo de detección de objetos que usan los autos autónomos. Cuando estas imágenes distorsionadas se imprimieron y pegaron en las señales de alto reales, el sistema de detección de objetos solo no detectó el ejemplo más extremo.

Los investigadores tuvieron más suerte al falsificar la detección facial, utilizando una máscara similar a Google DeepDream para distorsionar las características de un sujeto. Este ataque digital implicó superponer el camuflaje en una pieza de video preexistente, como se describe en el documento: “Aplicamos nuestro método de ataque a un conjunto de videos de entrenamiento para generar una perturbación adversarial de condición de vista cruzada, y aplicamos esa perturbación en esta secuencia de prueba. para generar la secuencia atacada.”

Debido a que el camuflaje implica entrenar al sistema de ataque en un video específico, presumiblemente se usaría para manipular imágenes para hacer que ciertas personas sean indetectables, en lugar de bloquear a una persona en tiempo real. Sin embargo, otros han estado investigando esto último. El año pasado, investigadores de la Universidad Carnegie Mellon lograron crear marcos para anteojos que engañan al reconocimiento facial, que se parecen un poco a algo Timmy Mallet usaría.

Esos lentes coloridos pueden ser imperceptibles para la vigilancia de detección facial, pero están lejos de ser invisibles para todos los demás en la habitación.

Imágenes: Jiajun Lu, Hussein Sibai y Evan Fabry