A los desarrolladores de inteligencia artificial se les ha pedido que coloquen marcas de agua en el contenido para que la gente pueda ver claramente que se trata de contenido generado por IA, mientras el gobierno busca abordar las preocupaciones de que la tecnología se esté utilizando para engañar y dañar a los australianos.
No existe ningún requisito legal para etiquetar el contenido como generado por IA, lo que ha llevado a que el contenido generado se confunda con real, lo que se conoce como deepfaking.
Como guía para los desarrolladores y creadores de contenido, el gobierno federal ha recomendado que el contenido de IA sea “claramente identificable” al incluir etiquetas que indiquen que el contenido fue generado por IA o incrustar información para rastrear el origen del contenido, un proceso conocido como marca de agua, que es más difícil de manipular o eliminar que las etiquetas.
Señala que las herramientas de transparencia son particularmente importantes cuando el contenido generado por IA podría usarse para “influir negativamente” en las personas, y que se vuelven más importantes cuanto más se involucra la IA en la creación del contenido.
“La IA llegó para quedarse. Al ser transparentes sobre cuándo y cómo se utiliza, podemos garantizar que la comunidad se beneficie de la innovación sin sacrificar la confianza”, dijo el ministro de Industria, Tim Ayres, en un comunicado.
“Es por eso que el gobierno albanés está pidiendo a las empresas que adopten estas directrices. Se trata de generar confianza, proteger la integridad y dar a los australianos confianza en el contenido que consumen”.
Algunas empresas, incluida Google, ya están colocando marcas de agua en el contenido de IA.
Tim Ayres dice que el contenido de IA llegó para quedarse y que los desarrolladores deberían ser transparentes al respecto. (ABC Noticias: Matt Roberts)
La rápida difusión de la IA generativa ha alimentado los temores de que la tecnología pueda usarse para fraude, desinformación, chantaje o para explotar a las personas mediante la creación de contenido falso convincente que tergiverse lo que una persona ha dicho o hecho.
La Comisión de Seguridad Electrónica ha advertido que se están produciendo abusos de imágenes deepfake en las escuelas australianas al menos una vez a la semana.
El lunes, el senador independiente David Pocock presentó un proyecto de ley de un senador privado que prohibiría el contenido alterado digitalmente o generado artificialmente que represente el rostro o la voz de una persona sin su consentimiento.
El senador Pocock dijo que el gobierno federal había sido demasiado lento y no había respondido de manera integral desde que comenzó a revisar la IA responsable hace más de dos años.
Se publicará el plan nacional de IA
La nueva guía sobre IA se entregó a la industria antes de la publicación por parte del gobierno de un plan nacional de IA, la culminación de varios años de consultas y se espera que introduzca “barandillas obligatorias” para protegerse contra los peores impactos de la IA.
El plan también responderá a las ideas presentadas en la mesa redonda sobre productividad del gobierno en agosto, donde la IA estuvo en el centro de las discusiones sobre cómo estimular la economía y aumentar los salarios.
La Comisión de Productividad advirtió contra la introducción de barreras de seguridad obligatorias en esta mesa redonda, diciendo que podría sofocar una oportunidad de 116 mil millones de dólares para la economía e instó a detener cualquier respuesta legislativa hasta que se identifiquen adecuadamente las lagunas en la ley.
Pero mientras el gobierno intenta equilibrar los riesgos de la IA con un potencial auge económico, sus últimas acciones se han centrado en abordar las profundas preocupaciones de seguridad de la población.
El senador Ayres anunció la semana pasada que el gobierno establecería un Instituto de Seguridad de IA que podría monitorear y responder a los “riesgos relacionados con la IA” y ayudar a generar confianza en la tecnología.
El ex ministro de Industria, Ed Husic, que inició consultas sobre una respuesta federal al crecimiento de la IA, ha pedido una ley específica sobre IA que pueda proporcionar un marco para responder con flexibilidad a la evolución de la tecnología.