Facebook está utilizando IA para combatir la propagación del terrorismo

Facebook ha anunciado en una entrada de blog que su IA está mejorando en la detección de contenido relacionado con el terrorismo y, posteriormente, en su eliminación. Personalmente, nunca he tenido la experiencia de desplazarme por un feed de Facebook y tropezarme con publicaciones que promocionan grupos terroristas como ISIS y Al Qaeda, pero puedo imaginar lo aterrador que podría ser verlo.

Facebook está utilizando IA para combatir la propagación del terrorismo

A través de los años Facebook ha lanzado preguntas sobre qué tan responsable es para frenar las publicaciones en su plataforma, pero ahora parece haber hecho algo notable para detenerlo.

Históricamente, Facebook ha dependido de sus usuarios para denunciar contenido que promueve el terrorismo. Sin embargo, ahora utiliza cada vez más la IA para identificar publicaciones y eliminarlas en una hora, algo que complacerá a los críticos que creen que el gigante de las redes sociales no está haciendo lo suficiente para combatir la difusión de material relacionado con el terrorismo en línea.

Uno de esos críticos, Hans-Georg Maassen, jefe de la Agencia de Inteligencia Nacional de Alemania, culpó a Facebook por la difusión de publicaciones de odio y noticias falsas, y acusó a la empresa de ser un "quinto poder que hace afirmaciones, pero hasta ahora" no ha querido ". asumir cualquier responsabilidad social”.

La publicación del blog de Facebook parece querer cambiar la narrativa y mostrar a países escépticos como Alemania que Facebook, de hecho, está haciendo algo.

LEER SIGUIENTE: Facebook admite que jugó con las emociones de los usuarios

“Hoy, el 99,9% del contenido terrorista relacionado con ISIS y Al Qaeda que eliminamos de Facebook es contenido que detectamos antes de que alguien en nuestra comunidad nos lo haya señalado y, en algunos casos, antes de que se publique en el sitio”, Monika Bickert, Jefe de Gestión de Políticas Globales y Brian Fishman, Jefe de Políticas Antiterroristas, escribieron en la entrada del blog. “Hacemos esto principalmente mediante el uso de sistemas automatizados como la comparación de fotos y videos y el aprendizaje automático basado en texto. Una vez que somos conscientes de una pieza de contenido terrorista, eliminamos el 83% de las copias cargadas posteriormente dentro de la hora posterior a la carga”.

Actualmente, el algoritmo solo apunta al contenido de Al Qaeda e ISIS, ya que la IA ha sido entrenada para aprender las estructuras de las oraciones y las funciones lingüísticas únicamente de estas dos organizaciones. Si bien eso sigue siendo un progreso, plantea preguntas sobre dónde se encuentra el contenido de otras organizaciones extremistas regionales, como EDL y Britain First dentro del Reino Unido.

Facebook afirma que estas organizaciones regionales no pueden ser atacadas utilizando su plataforma de IA. Para que la IA de Facebook comprenda cuáles son estas publicaciones, los expertos del foro colaborativo de Facebook deberán identificar las publicaciones extremistas en su plataforma y marcarlas.

En junio, Facebook, Microsoft, Twitter y YouTube formaron el Foro Global de Internet para Contrarrestar el Terrorismo. La colaboración entre los gigantes de las redes sociales tuvo como objetivo detener la propagación del terrorismo y el extremismo en sus plataformas. A través de este grupo, Facebook y sus colaboradores buscan detectar cambios en la forma en que las organizaciones terroristas usan las redes sociales para difundir propaganda y luego actuar en consecuencia.

Solo el tiempo dirá si algo de esto realmente frenará la difusión de material relacionado con el terrorismo en el sitio web. Pero esperemos que continúen aceptando su deber de fomentar un entorno en línea libre de publicaciones de odio y contenido extremista.