Cuando la policía registró la casa en Matraville del trabajador de TI de la escuela secundaria de Sydney, Aaron Pennesi, toparon con la punta del iceberg.
La policía estaba investigando el robo de información personal de colegas después de que la Unidad de Delitos Cibernéticos de la Policía de Nueva Gales del Sur se diera cuenta del malware que Pennesi había colocado en las computadoras de Forest High School.
Se descubrió que capturó información personal de sus colegas y la descargó en un archivo ZIP, afirmando que luego la eliminó.
Pero aún más preocupantes fueron las 54 imágenes de abuso infantil que también se encontraron en su computadora, todas creadas con inteligencia artificial.
Probablemente fue una novedad en los tribunales de Nueva Gales del Sur. Pennesi fue condenado en mayo del año pasado por posesión de material de abuso infantil creado con inteligencia artificial.
Fue sentenciado a dos años de prisión después de declararse culpable de un cargo de posesión de material de abuso infantil y de alteración no autorizada de información sobre discapacidad.
Las imágenes encontradas en su computadora representan lo que representa un nuevo desafío para las fuerzas del orden mientras se enfrentan a una tecnología rápida y en constante evolución.
Aaron Pennesi fue condenado por crear material de abuso infantil generado por IA. Imagen: NewsWire / Nikki Short
Un crecimiento espantoso e impresionante
Durante el período de seis meses comprendido entre enero y junio de 2025, la línea de información del Centro Nacional para Niños Desaparecidos y Explotados de EE. UU. (NCMEC) recibió más de 440.000 informes sobre el uso de IA generativa en la explotación sexual infantil.
Esto representa un aumento sorprendente en comparación con el mismo período del año pasado, cuando se recibieron 6.835 informes.
El NCMEC descubrió que en muchos casos, los perpetradores tomaron imágenes reales de niños y las usaron junto con inteligencia artificial para generar material de abuso infantil para chantajear a la víctima.
La compañía comenzó a rastrear el uso de IA en material de abuso infantil en 2023 y dice que el crecimiento ha sido “asombroso”.
Sarah Napier, jefa de investigación del Instituto Australiano de Criminología, dijo que una encuesta entre jóvenes australianos encontró que una de cada 10 víctimas había sido afectada por pasteles sexuales.
Y de ellos, dos de cada cinco fueron sometidos a sextorsión utilizando imágenes manipuladas digitalmente.
“En un análisis de los foros de chat de la red oscura para delincuentes sexuales infantiles, la AIC descubrió que los perpetradores se daban consejos entre sí sobre cómo utilizar la IA para generar CSAM (material de abuso sexual infantil), incluida la toma de imágenes no sexuales de niños reales por los que se sentían atraídos y luego provocaban que la IA abusara sexualmente de las imágenes”, dijo la Sra. Napier a NewsWire.
La Oficina del Comisionado Australiano de Seguridad Electrónica también informó de un aumento del 218 por ciento en el material de abuso sexual infantil generado por IA en un año.
La comisionada de eSafety, Julie Inman Grant, dice que las imágenes generadas por IA son una “amenaza actual y creciente”. Imagen: NewsWire/Martin Ollman.
Visualmente indistinguible
La IA ahora se utiliza para crear contenido hiperrealista que a veces es indistinguible de la realidad.
Y la lucha se desarrolla principalmente en las costas de Australia.
El Comisionado de eSafety lo describió como una “amenaza actual y creciente” que ya no era sólo un riesgo hipotético.
“La AIC ha descubierto que las víctimas adolescentes de extorsión sexual reportan impactos negativos más graves por el uso de materiales manipulados digitalmente”, dijo la señora Napier.
“La investigación de la web oscura realizada por la AIC reveló que los delincuentes utilizan imágenes no sexuales de niños reales y las convierten en CSAM.
“Existe amplia evidencia de que compartir CSAM en línea es perjudicial para los niños representados en las imágenes y que el trauma a menudo dura hasta la edad adulta”.
En julio de 2024, un hombre de Victoria fue sentenciado a 13 meses de prisión por imágenes de abuso infantil, incluido el uso de un programa de inteligencia artificial para crear 793 imágenes de abuso infantil.
El hombre se declaró culpable de producir material de abuso infantil y de utilizar un servicio de transporte para transmitir material de abuso infantil.
Los agentes del Equipo Conjunto Contra la Explotación Infantil de Victoria, que incluye agentes de la Policía Federal Australiana y la Policía de Victoria, determinaron que el hombre utilizó la plataforma de inteligencia artificial para ingresar texto e imágenes para crear el material.
Unos meses antes, un hombre de Tasmania fue condenado a dos años de prisión después de que se descubriera que había subido y descargado material de abuso infantil, incluido material creado con inteligencia artificial.
Un aviso del NCMEC llevó a la policía de Tasmania y a la AFP a registrar la casa del hombre en Gravelly Beach.
La policía encontró cientos de archivos que contenían material de abuso infantil, incluida una gran cantidad de material generado por IA.
Los jóvenes utilizan las llamadas aplicaciones “nudizantes” para avergonzar e intimidar a sus compañeros.
Y los delincuentes en línea utilizan las mismas aplicaciones para extorsionar a los adolescentes.
Estos deepfakes tienen un impacto devastador y devastador en las víctimas jóvenes, la mayoría de las cuales son mujeres.
También lo utilizan los pedófilos para crear contenido vil.
Los depredadores en línea están utilizando la inteligencia artificial para generar material vil sobre abuso infantil.
Según la Internet Watch Foundation, algunos materiales sobre abuso infantil generados por IA eran “visualmente indistinguibles de los creados con víctimas reales”.
Esto crea problemas para las fuerzas del orden y los defensores de la protección infantil que dedican recursos a encontrar víctimas reales.
En un ejemplo citado por la Internet Watch Foundation, pedófilos en línea enfermos tomaron imágenes de un niño real que sufría abuso sexual y las utilizaron para utilizar inteligencia artificial para crear material adicional sobre abuso infantil.
La niña “Olivia” fue abusada desde los tres años hasta que fue rescatada a los ocho años.
Se creía que todas las imágenes de su abuso fueron eliminadas de Internet luego de su rescate.
Pero años más tarde, los defensores del sacrificio infantil descubrieron que enfermos pedófilos en línea estaban usando su imagen para crear material de abuso infantil generado por IA.
Las chicas jóvenes son predominantemente víctimas de deepfakes generados por IA.
Combatir el abuso infantil inducido por la IA es una cuestión compleja.
Los defensores quieren que las empresas de inteligencia artificial coloquen barreras en sus plataformas que prohíban la producción de material de abuso infantil.
También quieren que los proveedores de motores de búsqueda eliminen de la plataforma las aplicaciones y programas utilizados para crear dichos materiales para que no aparezcan en los resultados de búsqueda.
También se pide a las tiendas de aplicaciones que eliminen las aplicaciones “molestas”, que son cada vez más comunes.
También hay esfuerzos para que las empresas de redes sociales detecten, bloqueen y denuncien material de abuso sexual infantil generado por IA.
“Las plataformas tecnológicas deben introducir más medidas para impedir la producción y el intercambio de CSAM generado por IA, incluida la educación de los usuarios, la privatización de los perfiles de las redes sociales y el bloqueo y la prevención de que los delincuentes utilicen sus servicios”, dijo la señora Napier.