Este artículo contiene referencias a la explotación sexual infantil.
Tres de los servicios “Nudify” más utilizados vinculados a material generado por IA sobre la explotación sexual de escolares han sido eliminados de Australia.
La empresa con sede en el Reino Unido retiró el acceso después de que la Comisión de eSafety emitiera una advertencia oficial en septiembre sobre la preocupación de que permitiría a los usuarios crear material diseñado para la explotación sexual infantil.
Esto violó el Código Obligatorio de Australia, que exige que todos los miembros de la industria en línea tomen medidas significativas para abordar el peor contenido en línea.
Alrededor de 100.000 australianos visitaron los servicios de “nudify” cada mes y fueron vistos en casos de alto perfil de estudiantes que creaban fotografías falsas de desnudos de sus compañeros de clase.
Los cierres demostraron que los códigos y estándares de Australia están ayudando a hacer que el mundo en línea sea más seguro, dijo la comisionada de eSafety, Julie Inman Grant.
“Sabemos que los servicios de desnudez se han utilizado en las escuelas australianas con efectos devastadores”, dijo Grant.
“Con este importante proveedor bloqueando el uso por parte de los australianos, creemos que esto tendrá un impacto tangible en la cantidad de escolares australianos que son víctimas de la explotación sexual infantil generada por la IA”.
Dijo que el proveedor no impidió que sus servicios fueran utilizados para crear material de explotación sexual infantil después de comercializar características como “desnudar a cualquier niña” y opciones para generar imágenes de “colegiala” y “modo sexual”.
eSafety ha visto una duplicación de informes de imágenes alteradas digitalmente, incluidas deepfakes, de personas menores de 18 años en los últimos 18 meses.
Cuatro de cada cinco informes involucraron ataques dirigidos a mujeres y niñas.
La acción se produce después de que la plataforma global de alojamiento de modelos de inteligencia artificial, Hugging Face, cambiara sus términos de servicio después de que los australianos advirtieran que estaba haciendo un uso indebido de algunas de sus herramientas generativas para crear material de explotación sexual infantil.
Los nuevos términos de Hugging Face requieren que los usuarios minimicen los riesgos asociados con los modelos que suben, en particular para evitar la generación de explotación sexual infantil o material antiterrorista.
La empresa está obligada a hacer cumplir los términos si detecta infracciones o corre el riesgo de recibir multas de hasta 49,5 millones de dólares.
Grant dijo que su organización está trabajando con el gobierno en reformas para restringir el acceso a herramientas de “nudificación”.
Si usted o alguien que conoce se ve afectado por una agresión sexual, llame a 1800RESPECT al 1800 737 732 o llame al Servicio Nacional de Apoyo y Reparación de Abuso Sexual al 1800 211 028.