La IA de caza de pornografía de la policía del Reino Unido aún no puede diferenciar entre desiertos y desnudos

La Policía Metropolitana de Londres está encargando a los sistemas de IA el poco envidiable trabajo de buscar en Internet imágenes de pornografía infantil, algo que cree que la tecnología será capaz de hacer con destreza en “dos o tres años”.

La IA de caza de pornografía de la policía del Reino Unido aún no puede diferenciar entre desiertos y desnudos

Sin embargo, a corto plazo, las herramientas de reconocimiento de imágenes de la policía tienen dificultades para diferenciar entre un cuerpo desnudo y una foto de un desierto. Si bien la policía ya está utilizando técnicas de aprendizaje automático para escanear dispositivos incautados en busca de imágenes de armas, drogas o dinero, el conjunto de herramientas tiene dificultades cuando se trata de desnudez.

“A veces se le ocurre un desierto y piensa que es una imagen indecente o pornografía”, dijo el jefe de análisis forense digital y electrónico del Met, Mark Stokes. El Telégrafo. “Por alguna razón, mucha gente tiene protectores de pantalla de desiertos y lo capta pensando que es el color de la piel”.

Una vez que se refina el sistema de reconocimiento de imágenes, la idea es que permitirá a los oficiales humanos descargar la carga de identificar imágenes perturbadoras en las máquinas. The Telegraph informa que la fuerza está elaborando planes para transferir datos confidenciales a "proveedores de Silicon Valley", lo que le permite aprovechar el gran poder informático de las empresas de tecnología y ayudar a entrenar su IA para buscar imágenes de abuso infantil.

Esa potencia informática adicional podría conllevar riesgos de seguridad adicionales. El cambio de un centro de datos local a un centro propiedad de Amazon, Google o Microsoft impartiría un nivel de responsabilidad externa a esas empresas, que atraen una gran cantidad de atención de los piratas informáticos – para proteger los datos confidenciales que aloja. Hay problemas legales adicionales en el sentido de que estos proveedores necesitarían el consentimiento de los tribunales para almacenar imágenes criminales.

También está el problema de que incluso los sistemas de aprendizaje automático de las grandes empresas tecnológicas no son inmunes a los errores, desde Gorjeo's "problemas técnicos" en torno al bloqueo de búsquedas relacionadas con el término "bisexual", a sesgos raciales y de género Incrustación en conjuntos de entrenamiento para redes neuronales. Como informó Alphr en nuestra mirada al tema, las normas occidentales a menudo pueden distorsionar las perspectivas culturales de las tecnologías emergentes.

En el caso de las dunas de arena mal etiquetadas, esto parece ser un error de nivel básico en la identificación de imágenes. Es probable que las cosas se compliquen mucho más cuando una máquina necesita considerar aspectos matizados en torno al contexto y la intención.

La IA del Met no es la primera en observar la naturaleza y ver desnudez. El año pasado, un proyecto de red neuronal creó sus propias imágenes “pornográficas”, pero basadas en escenas de desiertos, playas y volcanes.