diciembre 1, 2025
32bd2e27ab438bf36bd1ef264972e4c6.jpeg

A los australianos se les prohibirá acceder a tres sitios web populares “Nudify” que han sido vinculados con la creación de material de explotación sexual infantil, incluidos estudiantes que crean fotografías falsas de desnudos de compañeros de clase.

A la empresa con sede en el Reino Unido detrás de algunos de los servicios más utilizados del mundo, donde se pueden cargar fotos de personas reales y alterarlas artificialmente para que los sujetos parezcan desnudos, se le ha revocado el acceso en Australia luego de una acción coercitiva por parte de la Comisión de eSafety.

Los servicios de “nudify” recibieron alrededor de 100.000 visitas por mes de australianos y se han relacionado con varios casos de alto perfil relacionados con la creación de material generado por IA para explotar sexualmente a estudiantes.

La evidencia de esta actividad significó que la compañía violó los códigos y estándares obligatorios de Australia, que requieren que todos los miembros de la industria en línea tomen “medidas significativas” para abordar el material de abuso sexual infantil.

La comisionada de eSafety, Julie Inman Grant, dijo que los servicios “Nudify” se habían utilizado en las escuelas australianas con un “efecto devastador”.

“Con este importante proveedor bloqueando el uso por parte de los australianos, creemos que esto tendrá un impacto notable en la cantidad de escolares australianos que son víctimas de la explotación sexual infantil generada por IA”, dijo.

Inman Grant dijo que eSafety tomó medidas contra la empresa británica en septiembre por no implementar salvaguardias para evitar que sus servicios se utilizaran para generar material abusivo.

Dijo que la compañía incluso comercializa funciones como desnudar a “cualquier chica” y opciones para generar imágenes de “colegiala”, así como funciones como el “modo sexo”.

Julie Inman Grant dice que se necesita un “cambio cultural” para detener esta preocupante tendencia. (ABC Noticias: Craig Hansen)

Inman Grant dijo a ABC que los informes de abuso de imágenes deepfake se habían duplicado en los últimos 18 meses, pero creía que esto era “sólo la punta del iceberg”.

“Lo que vemos en muchos de estos casos… son en su mayoría adolescentes a quienes les resulta un poco ridículo recopilar fotos de sus compañeros de clase de las redes sociales o de otros lugares y crear estos videos sexualizados sin comprender realmente el daño a largo plazo, la humillación y la denigración que están causando”, dijo.

Inman Grant dijo que creía que era necesario un esfuerzo concertado para lograr un “cambio cultural” y detener esta preocupante tendencia.

“Necesitamos complementar nuestra educación sobre el consentimiento y nuestras relaciones respetuosas para reforzar verdaderamente que los daños digitales son daños reales y tienen impactos significativos a largo plazo en las personas”, dijo.

La Sra. Inman Grant dijo que eSafety tenía una gran cantidad de información sobre lo que los padres y los jóvenes podían hacer para evitar la “conversión de armas” de este tipo de imágenes.

eSafety también apunta a servicios que, al igual que las tiendas de aplicaciones tradicionales, actúan como los llamados guardianes de potentes modelos de inteligencia artificial que pueden usarse para generar material de explotación sexual infantil.

Una plataforma de alojamiento, Hugging Face, ha cambiado sus términos de servicio exigiendo que todos los titulares de cuentas tomen medidas para minimizar los riesgos asociados con los modelos que cargan, en particular para evitar el uso indebido para generar material de explotación sexual infantil o material a favor del terrorismo.

About The Author