Close

Así la inteligencia artificial ayuda a detectar material de abuso sexual infantil en línea

Safer usa la herramienta basada en hashing y matching, algoritmos que pueden detectar material de abuso sexual.

Los datos y la inteligencia artificial para su análisis puede salvar niños que son víctimas de abuso sexual. Solo en Estados Unidos se recibieron más de 88 millones de archivos reportados en los que menores de edad eran víctimas de abuso sexual, según el Centro Nacional de Niños Explotados y Desaparecidos en el 2022. Descubre cómo la tecnología es utilizada para detectar y denunciar a los pedófilos y abusadores.

“Como profesionales en tecnología tenemos el poder de acabar con las pesadillas de niños (que son abusados)”, dijo la Dra. Rebecca Portnoff, jefa de ciencia de datos en Thorn, quien fue invitada en la serie de conferencias AWS re:Invent 2023. En los últimos cinco años, se reporta un aumento del 329% en archivos de material de abuso sexual infantil (CSAM).

Thorn es una ONG fundada por los actores Ashton Kutcher y Demi Moore, que desarrolló el software Spotlight para detectar imágenes o videos de pornografía infantil. Con esta tecnología se ha logrado identificar al menos 9 niños cada día que son presuntas víctimas de abuso sexual.

Esta organización también lanzó Safer, un software basado en la tecnología de Amazon Web Services (AWS) que es utilizado por las empresas para evitar que en sus plataformas en la nube se registre pornografía infantil.

A la fecha, este programa es empleado por empresas como GoDaddy, que aloja miles de sitios web; Imgur, que permite subir fotos; Vimeo, que facilita el almacenamiento de videos; entre otras. Todas estas plataformas tienen el potencial riesgo de que malos usuarios suban contenido ilegal como pornografía infantil.

Lo cierto es que los depredadores en línea vienen utilizando tecnologías novedosas, como los chatbots, para atraer a menores de edad en internet. De 2021 a 2022, se detectó un 82 % de aumento en los informes de incitación para realizar actos sexuales con menores como víctimas en Estados Unidos.

Eso no es todo. Solo entre 2021 y 2022, la Internet Watch Foundation observó un aumento del 9% en material de abuso sexual infantil generado por computtadora usando IA y otras tecnologías.

“Estos no son solo archivos, son niños pidiendo ayuda desesperadamente”, alertó Portnoff. “La inteligencia artificial y el machine learning hace la diferencia”, dijo, recordando que comenzaron a trabajar en la plataforma en el 2019, cuando ya se estudiaba el uso de redes neuronales convolucionales para detectar pornografía infantil.

“Construimos un clasificador que actúa como un magneto poderoso para encontrar nuevos archivos de abuso infantil”, agregó. Para que esta herramienta sea utilizada por las plataformas tecnológicas donde se almacena contenido se emplea Amazon ECR para distribuir el modelo IA entrenado.

También se utiliza Amazon EKS para mejorar el algoritmo y Amazon S3 para recibir retroalimentación como falsos positivos de parte de las compañías tecnológicas, y así afinar aún más la detección.

Inteligencia artificial para acabar con el abuso infantil

Para ello, Safer usa la herramienta basada en hashing y matching, algoritmos que pueden detectar material de abuso sexual infantil e interrumpir su propagación en línea. Normalmente se utilizan dos tipos de hash: hash perceptual y criptográfico. Ambas tecnologías convierten un archivo en una cadena única de números llamada valor hash. Es como una huella digital para cada contenido.

Estos algoritmos se apoyan de inteligencia artificial y machine learning para comparar el contenido detectado con material previamente denunciado. Esta metodología permite a las empresas de tecnología identificar, bloquear o eliminar este contenido ilícito de sus plataformas.

Safer es una gran base de datos que agrega más de 29 millones de valores hash conocidos para este contenido ilícito. También permite a las empresas de tecnología compartir listas hash entre sí (ya sea bajo su nombre o de forma anónima) ampliando aún más la cantidad de datos para así interrumpir la propagación de material de abuso sexual de niñas, niños y adolescentes.

En 2022, Safer analizó más de 42,1 mil millones de imágenes y videos y se encontraron 520,000 archivos de abuso en las plataformas. Hasta la fecha, Safer ha ayudado a identificar 2.8 millones de archivos de presunto contenido ilícito, según el informe Emerging Online Trends in Child Sexual Abuse 2023.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

0 Comments
scroll to top