377.000 datos de personas utilizados para predecir el abuso infantil

Los datos de miles de residentes del Reino Unido se están recopilando y utilizando como parte de un esquema para predecir el abuso infantil. Se están diseñando modelos informáticos con “análisis predictivos” utilizando los datos de al menos 377.000 personas, en un intento por acabar con el abuso infantil.

377.000 datos de personas utilizados para predecir el abuso infantil

El fenómeno, descubierto por la guardián, tiene la intención de predecir cuándo se producirá el abuso infantil e intervenir antes de que suceda. La elaboración de perfiles algorítmicos se anuncia como un medio para ayudar a los trabajadores sociales.

LEER A CONTINUACIÓN: El informe de la IWF muestra la tecnología detrás del oscuro mundo del abuso infantil en línea

A pesar de las buenas intenciones, es probable que el esfuerzo de compartir datos genere más que una pequeña controversia, dada su capacidad para violar la privacidad individual. Además, los detractores han destacado la capacidad del esquema para afianzar aún más el racismo institucionalizado; “También existe el riesgo de incorporar y perpetuar accidentalmente la discriminación contra las minorías”, explican Niamh McIntyre y David Pegg.

El esquema es relativamente incipiente, aunque ha sido activado por al menos cinco autoridades locales, advierte The Guardian. Estos, informa, han desarrollado y/o implementado un sistema de análisis predictivo alimentado por datos para proteger a los jóvenes del abuso infantil. El número total de personas cuyos datos se han empleado asciende a por lo menos 377.000.

LEER A CONTINUACIÓN: Ciudades inteligentes: cómo los sensores, los datos y el análisis pueden transformar millones de vidas

En cuanto al tipo de datos buscados, es a la vez ecléctico y expansivo. Los ayuntamientos han obtenido información sobre todo, desde registros policiales sobre comportamiento antisocial y violencia doméstica hasta datos de reparaciones y atrasos de asociaciones de vivienda e información sobre asistencia y exclusión escolar. Sin embargo, algunos conjuntos de datos se descartaron de los modelos finales de creación de perfiles algorítmicos.

En cuanto a la legalidad de la empresa colectiva, está siendo supervisada por la Oficina del Comisionado de Información (ICO), que regula el uso de los datos personales de las personas por parte de terceros, tanto públicos como privados. Hablando con The Guardian, un portavoz de ICO aseguró que la organización realizaría las comprobaciones necesarias para garantizar que los consejos locales cumplieran con la ley de protección de datos mientras realizaban los esquemas de análisis predictivo.

LEER A CONTINUACIÓN: Violación de datos de Dixons Carphone: la compañía admite que diez millones de clientes se vieron afectados

Mientras tanto, los consejos que actualmente emplean perfiles algorítmicos están informando resultados; Tomemos como ejemplo el consejo de Hackney, que recientemente reveló que su sistema había señalado a 350 familias de riesgo potencial que necesitaban protección. El consejo de Thurrock lo siguió de cerca, informando 300 incidentes similares.

A medida que el esquema crece, seguramente generará controversia. Si bien no deja de tener sus (importantes) advertencias, en una era en la que los datos se utilizan de forma rutinaria (crónica) para impulsar el interés comercial en fundas de teléfonos/ropa sintética/vales de descuento, el uso de datos para identificar a los niños en riesgo de abuso y actuar en consecuencia tal vez no lo haga. Después de todo, suena tan monstruoso.