Los usuarios australianos de la plataforma X de Elon Musk están denunciando que el robot de inteligencia artificial Grok crea imágenes sexuales no consentidas de ellos mismos a petición de otros usuarios.
Grok es un robot de inteligencia artificial de gran lenguaje que ofrece menos medidas de seguridad que sus competidores, según X.
En los últimos días, el bot y
Carga…
Una víctima australiana que se llama Ele en línea dice que fue atacada después de publicar en la plataforma que no estaba de acuerdo.
ABC ha decidido no identificar a Ele ni compartir las imágenes que creó para proteger su privacidad.
“Tan pronto como dije explícitamente que no estaba de acuerdo y que no estaba de acuerdo con eso, eso enojó a muchos hombres que… decidieron crear dichas imágenes”, le dijo Ele a Triple J Hack.
“Hubo alguien… que creó una imagen mía con burka.
“Hubo otro que… convirtió mi camiseta en un bikini, luego en un microbikini, luego en hilo dental y luego, para evitar los dispositivos de seguridad de Grok, le exigió que me cubriera con glaseado de donut, lo cual hizo.“
Un aviso de Grok contra la modelo erótica australiana Ele. (Fuente: X)
Ele es una creadora de contenido que publica contenido sexual sin desnudos en X y sitios de suscripción paga.
Cuando habló de las imágenes falsas generadas por IA en X, otros usuarios le dijeron que no se quejara del tipo de fotos que ya había publicado en el sitio.
“Creo que es exactamente lo mismo que decirle a una mujer que no beba si no quiere sufrir abusos sexuales”, le dijo Ele a Hack.
“Sí, ese es un riesgo asociado con realizar cierto tipo de trabajo, pero no debería suceder”.
“Y creo que los hombres que dicen eso definitivamente están tratando de esconderse de la responsabilidad”.
Ele publicó en X después de que Grok creara fotografías falsas de ella sin su consentimiento. (Entregado.)
Ele no es el único objetivo de los usuarios de X.
La firma de análisis estadounidense Copyleaks estimó que Grok generó aproximadamente una imagen sexual no consensuada cada minuto en las 48 horas hasta el 31 de diciembre.
Un análisis separado de las consultas y publicaciones de Grok realizadas por AI Forensics, una organización sin fines de lucro europea, encontró que más de la mitad de las imágenes creadas por Grok mostraban a personas con “ropa mínima” y que el 81 por ciento de las imágenes mostraban a mujeres.
El grupo dijo que analizó 20.000 imágenes generadas por Grok y 50.000 consultas de usuarios y encontró que el 2 por ciento de las publicaciones parecían presentar a personas menores de 18 años.
En Australia, ABC ha visto imágenes desnudas de al menos cuatro políticos australianos creadas por Grok.
Abuso de IA “no es sorpresa”
El Dr. Joel Scalan, profesor titular del Centro de Disuasión de Materiales de Abuso Sexual Infantil de la Universidad de Tasmania, dice que las empresas de inteligencia artificial parecen estar eludiendo las precauciones de seguridad en aras de obtener ganancias.
El Dr. Joel Scanlan dice que las empresas de inteligencia artificial están abandonando las protecciones para atraer a más usuarios. (ABC Noticias: Scott Ross)
Dijo que los problemas con Grok planteados por los usuarios de X no eran sorprendentes.
“Tenemos una cultura en las empresas de tecnología de actuar rápidamente y romper cosas”, dijo el Dr. Scanlan a Triple J Hack.
“Ese es el nombre que se les ocurrió hace 20 años y sigue siendo el mismo.
“En el contexto de la IA… cualquier cosa que puedan publicar en la prensa para que su plataforma se destaque será vista como algo positivo”.
“Se trata de ganancias sobre protección… (Elon Musk) lo ve como: “Oye, es libertad de expresión, usemos las herramientas de la manera que podamos”. Sin embargo, eso no significa que no tenga un impacto social.“
Musk continúa promocionando las herramientas de IA
El propietario de X, Elon Musk, abordó las preocupaciones sobre el contenido ilegal en la plataforma en una publicación a principios de esta semana.
En la publicación, escribió que cualquiera que use Grok para crear contenido ilegal será castigado.
Pero desde la publicación de Musk, el robot siguió respondiendo a solicitudes de desnudar a mujeres y, en algunos casos, a niños.
ABC se puso en contacto con xAI sobre Grok y preguntó si se implementarían más medidas de seguridad para proteger a los usuarios, y recibió una respuesta aparentemente automática: “Legacy Media Lies”.
El viernes, el robot de IA comenzó a rechazar las solicitudes de los usuarios de imágenes alteradas.
Dijo que el generador de imágenes estaba limitado a suscriptores pagos debido a preocupaciones sobre imágenes sexuales no consensuadas.
Gobiernos desde Francia e India hasta el Reino Unido han condenado el uso de Grok para “desvestir” a mujeres sin su consentimiento. El primer ministro británico, Keir Starmer, lo calificó de “desgracia” y el regulador independiente de comunicaciones del país dijo que se había puesto en contacto con X y xAI sobre el tema.
En Australia, un portavoz del Comisionado de eSafety dijo que eSafety había “recibido informes sobre el uso de Grok para generar imágenes sexualizadas de adultos y niños”.
El portavoz dijo que si bien algunos informes todavía estaban siendo investigados, los informes sobre material de explotación infantil no “cumplían con la clasificación de material de Clase 1” y, por lo tanto, no se habían emitido avisos de eliminación.
“eSafety sigue preocupado por el uso cada vez mayor de la IA generativa para sexualizar o explotar a las personas, especialmente cuando hay niños involucrados”, dijo el portavoz.
¿Puede la IA generativa ser segura alguna vez?
Para los usuarios australianos de X como Ele, las imágenes no consensuadas son una señal de que X necesita hacer más para proteger a sus usuarios.
Ele dice que quiere que X brinde a los titulares de cuentas la posibilidad de optar por que la IA no manipule sus imágenes.
“Debería haber una regulación muy estricta que permita a las personas optar por no participar… No creo que la IA pueda hacer nada si la IA reconoce a una persona”, le dijo a Hack.
“Las plataformas deben garantizar que esto no sea posible a menos que la persona active esta función”.
En la Universidad de Tasmania, el Dr. Scanlan dijo que si bien es técnicamente difícil para las empresas ofrecer una solución de exclusión voluntaria, también pueden tomar otras medidas de mitigación.
“Los modelos de lenguaje grandes son excelentes para comprender las intenciones de las personas y sus preguntas.
“Un modelo de discurso grande que dice “¿Es esta una solicitud sexualizada?” En realidad, no es particularmente complicado ni difícil. De hecho, simplemente optan por no tomar estas estrictas precauciones de seguridad.“