Los drones ahora se pueden usar para detectar peleas y violencia en grandes multitudes con IA
Los científicos han entrenado drones para reconocer comportamientos violentos en multitudes usando IA.
En un papel llamado Ojo en el cieloinvestigadores de la Universidad de Cambridge y los institutos de tecnología y ciencias de la India detallaron cómo alimentaron videos de poses humanas para ayudar a sus drones equipados con cámaras a detectar personas que cometen actos violentos.
Los investigadores afirman que el sistema cuenta con una tasa de precisión del 94% en la identificación de poses violentas y funciona en tres pasos: primero, la IA detecta a los humanos a partir de imágenes aéreas, luego usa un sistema llamado “Aprendizaje profundo híbrido ScatterNet” para interpretar la pose de cada uno detectado. humano y, finalmente, la orientación de las extremidades en la pose estimada se numeran y se unen como un esqueleto de color para identificar a los individuos.
El algoritmo utilizado por la IA está entrenado para combinar cinco poses que los investigadores han considerado violentas, que se clasifican como estrangulamiento, puñetazos, patadas, disparos y apuñalamientos.
Los voluntarios representaron las poses para entrenar a la IA, pero se espaciaron generosamente y usaron movimientos exagerados mientras representaban los ataques. El informe explica que cuanto más grande es la multitud y más violentos son los individuos dentro de ella, menos precisa se vuelve la IA.
“La precisión del Drone Surveillance System (DSS) disminuye con el aumento del número de humanos en la imagen aérea. Esto puede deberse a la incapacidad de la red FPN para localizar a todos los humanos o la incapacidad de la red SHDL para estimar la pose de los humanos con precisión”, escribieron los investigadores. “La pose incorrecta puede resultar en un vector de orientación incorrecto que puede llevar a la SVM a clasificar las actividades incorrectamente”.
Cuando un individuo violento está en la multitud, el sistema tiene una precisión del 94,1 %, que se reduce al 90,6 % con dos, al 88,3 % con tres, al 87,8 % con 4 y al 84 % con cinco individuos violentos. Según esas cifras, rastrear la violencia en incidentes generalizados como los disturbios de 2011 sería actualmente inviable.
El software de reconocimiento impulsado por IA ya está en uso entre los organismos encargados de hacer cumplir la ley, a pesar de los temores de que no sea lo suficientemente preciso.
Ambos Policía Metropolitana y Policía de Gales del Sur fueron acusados de usar tecnología de reconocimiento facial peligrosamente inexacta por grupos de campaña de privacidad el mes pasado.
Los grupos revelaron que la Met tuvo una tasa de fallas del 98 % al usar el reconocimiento facial para identificar a los sospechosos en el Carnaval de Notting Hill del año pasado y que la policía de Gales del Sur identificó erróneamente a 2400 personas inocentes y almacenó su información sin su conocimiento.