La desinformación mejorada por la IA fue difícil de evitar en las horas y días posteriores al ataque terrorista de Bondi Beach, y algunas plataformas hicieron afirmaciones dudosas a los usuarios que buscaban información objetiva.
El lado “Para ti” de que aquellos detrás del ataque eran soldados de las FDI; que los heridos eran actores de la crisis; que una persona inocente fue uno de los presuntos agresores; y que el héroe musulmán sirio que luchó contra los atacantes era un cristiano con nombre inglés.
La IA generativa sólo empeoró las cosas.
Un clip alterado del primer ministro de Nueva Gales del Sur, Chris Minns, con audio falso que hacía afirmaciones falsas sobre los atacantes, se compartió en varias cuentas.
En otro ejemplo particularmente atroz, una imagen generada por IA basada en una foto real de la víctima fue alterada para sugerir que era un actor de crisis con un maquillaje rojo aplicado en la cara que parecía sangre.
“Vi estas fotografías mientras me preparaban para la cirugía de hoy y no dignificaré esta enfermiza campaña de mentiras y odio con una respuesta”, publicó más tarde en X el hombre de la fotografía falsa, el abogado de derechos humanos Arsen Ostrovsky.
El Ministro de Información de Pakistán, Attaullah Tarar, dijo que su país fue víctima de una campaña coordinada de desinformación en línea tras el ataque terrorista de Bondi Beach, en la que circularon afirmaciones falsas de que uno de los sospechosos era un ciudadano paquistaní.
El hombre que fue identificado erróneamente le dijo a Guardian Australia que era “extremadamente inquietante” y traumático que su foto fuera compartida en las redes sociales junto con afirmaciones de que él era el presunto atacante.
Tarar dijo que el paquistaní fue “víctima de una campaña maliciosa y organizada” y afirmó que la campaña de desinformación se originó en la India.
El chatbot de IA Grok de Esta afirmación parece haberse originado en un sitio web creado el mismo día del ataque terrorista para imitar un sitio de noticias legítimo.
Las imágenes de Ahmed generadas por IA también se difundieron en las redes sociales, promoviendo esquemas criptográficos y recaudaciones de fondos falsas.
Estaba muy lejos del apogeo de Twitter como centro de noticias de última hora. Entonces también circuló información errónea, pero era menos común y no se difundió a través de un algoritmo diseñado para recompensar el compromiso basado en la indignación (particularmente entre cuentas verificadas que podrían beneficiarse financieramente de ese compromiso).
Muchas de las publicaciones que promocionaban afirmaciones falsas tuvieron cientos de miles o incluso millones de visitas.
En
Cuando Musk se hizo cargo, otras plataformas siguieron su ejemplo. Meta desmanteló su sistema anterior de verificación de datos y en su lugar implementó su propia versión de notas comunitarias.
Pero como dijo esta semana el profesor de QUT, Timothy Graham, el sistema de notas comunitarias no es útil en situaciones en las que las opiniones están profundamente divididas. Está tardando demasiado. Desde entonces, las notas de la comunidad se han aplicado a muchos de los ejemplos anteriores, pero eso fue mucho después de que la mayoría de las personas hubieran visto las publicaciones originales en sus feeds.
X está intentando permitir que Grok cree sus propias notas comunitarias para verificar las publicaciones, pero si nos guiamos por el ejemplo de Ahmed, eso es aún más preocupante.
La compañía no respondió a las preguntas sobre qué está haciendo para combatir la información errónea publicada en su plataforma o difundida por su chatbot de IA.
Una gracia salvadora es que muchas falsificaciones, por ahora, siguen siendo fáciles de detectar. Los Minn falsos, por ejemplo, tenían un acento americano en su acento, dejando claro que no era él. La publicación del actor de crisis tenía muchas características de generación de imágenes de IA cuestionable, como texto generado incorrectamente en una camiseta.
La mayoría de los medios ignoraron las publicaciones o las criticaron.
Pero a medida que los modelos de IA mejoren, eso podría cambiar, haciendo aún más difícil distinguir la realidad de la ficción. Mientras tanto, las empresas de inteligencia artificial y las plataformas que alojan su contenido parecen no estar dispuestas a hacer nada para evitarlo.
Digi, el grupo industrial que representa las plataformas de redes sociales en Australia, propuso eliminar un requisito para combatir la desinformación de un código de la industria a principios de este año, diciendo que la “experiencia reciente” había demostrado que “la desinformación es un tema polémico y con carga política dentro de la comunidad australiana”.
Es difícil imaginar cómo cambiarán las cosas esta semana.