Intención de los usuarios en relación con el CSAM en Redes Sociales
Una publicación reciente por parte de Facebook en su blog denominado Understanding the intentions of Child Sexual Abuse Material (CSAM) sharers - Facebook Research (fb.com), analiza las intenciones de los usuarios que comparten material de abuso sexual infantil (CSAM por sus siglas en inglés) en su plataforma, tomado de una investigación por parte de su equipo de seguridad infantil, con entrevistas a expertos mundiales en explotación sexual, incluyendo el Centro Nacional para Niños Desaparecidos y Explotados (NCMEC), a fin de mejorar su intervención y hacerla eficaz diferenciando a aquellos que comparten imágenes basadas en un interés sexual en los NNyA, de aquellos que comparten material CSAM con la intención de ser graciosos (memes) o indignación.
¿Por qué son importantes estas diferencias para Facebook?
- De esta manera se podrá brindar un contexto más amplio para mejorar los informes que dirigen a NCMEC y fuerzas del orden, además de poder realizar un triage más eficaz y así identificar niños que estén siendo abusados actualmente.
- Desarrollar intervenciones específicas para evitar el intercambio de estas imágenes.
- Diferenciar a las personas que comparten CSAM desde el enojo o indignación al que lo comparte por gusto.
Investigación
La investigación señaló una serie de temas clave en torno a los tipos de participación que las personas pueden tener con el material de abuso sexual infantil, como las intersecciones entre ofensas en línea y fuera de línea y espectros de participaciones ofensivas (desde la navegación hasta la producción de imágenes, videos, etc).
Facebook al igual que diversas compañías del mundo digital analizan sus plataformas mediante técnicas de señales de comportamiento. La taxonomía o forma de trabajo está influenciada por la obra de Lanning en 2010.
“Su investigación esbozó una serie de categorías de personas que se involucran con comportamientos dañinos o contenido que involucra a niños. Lanning dividió a aquellos que ofenden a los niños en dos grupos clave: delincuentes sexuales preferenciales y delincuentes sexuales situacionales”.
Lanning clasificó al delincuente situacional como alguien que "no suele tener preferencias sexuales compulsivas-parafílicas, incluyendo una preferencia por los niños. Sin embargo, pueden tener relaciones sexuales con niños por razones variadas y a veces complejas". Un delincuente sexual preferencial, según Lanning, tiene "inclinaciones sexuales definitivas" hacia los niños, como la pedofilia.
Taxonomía de trabajo de Facebook
Con lo mencionado anteriormente, Facebook empezó a trabajar en las pruebas para comprender las intenciones de aquellos que comparten CSAM.
Según su reporte la prevalencia de este contenido es muy baja, lo que significa que los envíos y visualizaciones son muy pocos frecuentes, aun así, cuando detectan este tipo de infracciones, independiente del contexto o motivación, lo eliminan y reportan al NCMEC.
Para esto han analizado 200 reportes enviados a NCMEC por poseer CSAM, generando variaciones en el análisis de comportamiento e intenciones entre los usuarios, probando estos indicadores en la plataforma junto al equipo de ciencia de datos.
En el artículo dejan explicito que recién están haciendo pruebas tempranas para mejorar su comprensión a fin de aplicarlo en gran escala. De estos resultados surge que el 75% de las cuentas analizadas no poseían intenciones maliciosas (es decir, que no tenían intención de dañar a un niño, niña o adolescente) sino que provenía de otras razones como haber compartido por indignación o mal humor del usuario.
A continuación, se presenta las definiciones y ejemplos de la clasificación de usuarios establecidos de la presente investigación por parte de la compañía.
Usuarios maliciosos
Delincuentes preferenciales: Personas cuya motivación se basa en un interés sexual inherente y subyacente en los niños (es decir, pedófilos/hebefílicos). Sólo están sexualmente interesados en los niños.
Ejemplo: El usuario está conectado con varios menores, que los está coaccionando para producir CSAM, con amenazas de compartir el material sexual existente que han obtenido.
Delincuentes Comerciales: Personas que facilitan el abuso sexual infantil con el propósito de obtener ganancias financieras. Estas personas se benefician de la creación de CSAM y pueden no tener un interés sexual en los NNyA.
Ejemplo: Un padre que está poniendo a su hijo a disposición del abuso infantil a través de una transmisión en vivo a cambio de pago.
Delincuentes situacionales: Personas que aprovechan situaciones y oportunidades que se presentan para interactuar con CSAM y menores de edad. Pueden ser moralmente indiscriminados, pueden estar interesados en muchos temas parafílicos y CSAM es una parte de eso.
Ejemplo: El usuario que se está acercando a otros usuarios para solicitar imágenes sexuales (adultos y niños), si un niño comparte imágenes, se involucrará con esas imágenes y el niño.
Usuarios no maliciosos
Delincuentes involuntarios: Esta es una amplia categoría de personas que tal vez no poseen intención de causar daño al NNyA representado en las imágenes de CSAM, pero están compartiendo por humor, indignación o ignorancia.
Ejemplo: El usuario comparte un meme CSAM de los genitales de un niño siendo mordidos por un animal porque piensan que es gracioso.
Usuarios menores no explotadores: Los NNyA que están incurriendo en comportamientos normales del desarrollo que, si bien técnicamente son ilegales o están en contra de la política, no son inherentemente explotadores, pero sí contienen riesgos.
Ejemplo: Dos jóvenes de 16 años que se envían imágenes sexuales entre sí (sexting). Se conocen desde la escuela y actualmente están en una relación.
Delincuentes situacionales "riesgosos": Individuos que consumen y comparten habitualmente contenido sexual para adultos, y que entran en contacto con CSAM y comparten este material como parte de este comportamiento, potencialmente sin conciencia de la edad de los sujetos en las imágenes que han recibido o compartido.
Ejemplo: Un usuario recibió una imagen o video que representa a un joven de 17 años, no es consciente de que el contenido es CSAM. Lo vuelven a compartir en un grupo donde la gente está compartiendo contenido sexual para adultos.
Imagen 1: taxonomía de usuarios determinados por Facebook
Investigación realizada por el equipo de investigación de seguridad infantil en línea, del Instituto de políticas públicas de prevención de Grooming de la Honorable Cámara de Diputados de la Provincia de Buenos Aires, Argentina.
Tomando como referencia el material realizado por Facebook en cuanto a las intenciones de los usuarios que comparten CSAM en su plataforma, este equipo, ha realizado un análisis, tomando los datos obtenidos de los últimos reportes realizados. Donde se ha visualizado una práctica recurrente en las publicaciones. Muchos usuarios utilizan la plataforma como un puente para conseguir o compartir material de abuso sexual infantil, para ello realizan publicaciones o comentarios con el fin de migrar a sistemas de mensajería instantáneas, como grupos de WhatsApp, Telegram o Facebook Messenger. Para esto, comparten una URL, lo que deja a cualquier usuario: niña, niño, adolescente o adulto a un clic de estos agresores.
Dentro de las practicas recurrentes, se visualizan publicaciones que usan un código propio y se centran en las letras CP (child porn) que son utilizadas para generar variantes en español como “carne y papas”, “caldo de posho”, “costal de papas”, “código postal”, por mencionar algunas de ellas.
Imagen 2: taxonomía determina por el IPPPG – HCD Buenos Aires
Imagen 3: Ejemplos de casos existentes en la red
También se ha localizado usuarios que realizan publicaciones en grupos que no están destinados a compartir material de CSAM, pero los utilizan como un medio para alcanzar a otros usuarios que estén interesados en compartir este tipo de material. Para esto, generan URL de grupos de WhatsApp, entre otras aplicaciones.
Haciendo uso de los grupos taxonómicos que ha diferenciado Facebook, podemos identificar una variante dentro de la clasificación de usuarios maliciosos, la cual podríamos definir como delincuentes situacionales -de enlace- los cuales consumen y comparten este material, con conciencia, haciendo uso de las plataformas sociales como vía de interacción con otros usuarios, migrando a sistemas de mensajería instantánea privadas, donde realizan el intercambio explícito de CSAM.
Dentro de las políticas de seguridad infantil, Facebook aclara que elimina perfiles y contenidos que sexualizan explícitamente a NNyA, este equipo comprende que el contenido no explícito, al no representar niveles de desnudez infantil, es más difícil de detectar. Las imágenes, por sí solas, podrían no representar un peligro inmediato, pero al analizar los comportamientos, textos adjuntos, palabras claves que utilizan los usuarios de cada país y región, puede ayudar a determinar el contenido de CSAM, para eliminarse.
Para finalizar, es necesario aclarar que esta metodología es utilizada en todas las redes sociales, plataformas de video y cualquier otro espacio en línea que permita a los usuarios interactuar para reconocerse, organizarse e inmediatamente migrar con un clic en un enlace a servicios de mensajería instantánea. Por esto, es cada día mas complejo generar mecanismos automatizados de detección y se volverá un gran desafío para lo cual será necesario contar con operadores entrenados y capacitados que puedan ayudar en esta detección y detención de la propagación de CSAM.
Arroyo Braian
Responsable de Investigaciones de seguridad infantil en línea
Instituto de Políticas Públicas de Prevención de Grooming
Honorable Cámara de Diputados de la Provincia de Buenos Aires
Maestrando en Ciberdefensa y Ciberseguridad (UBA); Ing Industrial (ITBA); Experto en Informática Forense (UTN); Miembro y Secretario de la Com. de Informática Forense en IRAM; Profesor en Posgrados; Consultor; Perito
3 añosFelicitaciones, Braian!!! Muy interesante aporte criminológico al perfilamiento de los usuarios de RRSS vinculados a material de abuso sexual infantil. En estas épocas donde abundan las operaciones de desinformación en las RRSS hay una complejidad en común con el tema de tu artículo que complica la detección por parte de algoritmos y es el de la difusión empleando mensajes de audio. Habrá que buscarle la vuelta! 👏👏👏👏💪💪💪💪