Un hombre de 60 años sin antecedentes de enfermedad mental acudió a urgencias de un hospital insistiendo en que su vecino lo estaba envenenando. Durante las siguientes 24 horas, sufrió alucinaciones cada vez más graves y trató de escapar del hospital.
Los médicos finalmente descubrieron que el hombre consumía diariamente bromuro de sodio, una sal inorgánica utilizada principalmente para fines industriales y de laboratorio, como limpieza y tratamiento de agua.
Lo compró a través de Internet después de que ChatGPT le dijera que podía usarlo en lugar de sal de mesa porque le preocupaban los efectos de la sal en su dieta sobre la salud. El bromuro de sodio puede acumularse en el cuerpo y provocar una afección llamada bromismo, que provoca síntomas como alucinaciones, somnolencia y falta de coordinación.
Son casos como este los que preocupan a Alex Ruani, estudiante de doctorado en desinformación sanitaria en el University College London, sobre el lanzamiento de ChatGPT Health en Australia.
Regístrese: correo electrónico para recibir noticias de última hora de AU
Un número limitado de usuarios australianos ya puede acceder a la plataforma de inteligencia artificial (IA), que les permite “conectar de forma segura registros médicos y aplicaciones de bienestar” para generar respuestas que son “… más relevantes y útiles para usted”. Los usuarios de ChatGPT en Australia pueden unirse a una lista de espera para acceder.
“ChatGPT Health se presenta como una interfaz que puede ayudar a las personas a comprender la información de salud y los resultados de las pruebas u obtener consejos nutricionales sin reemplazar a un médico”, dijo Ruani.
“El desafío es que para muchos usuarios no está claro dónde termina la información general y comienza el consejo médico, especialmente cuando las respuestas suenan seguras y personales, incluso si son engañosas”.
Ruani dijo que ha habido demasiados ejemplos “horribles” en los que ChatGPT “pasa por alto importantes detalles de seguridad como efectos secundarios, contraindicaciones, advertencias de alergia o riesgos asociados con suplementos dietéticos, alimentos, dietas o ciertas prácticas”.
“Lo que me preocupa es que no hay estudios publicados que prueben específicamente la seguridad de ChatGPT Health”, dijo Ruani. “¿Qué indicaciones de usuario, rutas de integración o fuentes de datos podrían generar información errónea o dañina?”
ChatGPT es desarrollado por OpenAI, que utilizó la herramienta HealthBench para desarrollar ChatGPT Health. HealthBench emplea médicos para probar y evaluar qué tan bien funcionan los modelos de IA para responder preguntas de salud.
Ruani dijo que toda la metodología utilizada por HealthBench y sus evaluaciones “…en gran medida no se divulgaron y no se establecieron en estudios independientes revisados por pares”.
“ChatGPT Health no está regulado como dispositivo médico o dispositivo de diagnóstico. Por lo tanto, no existen controles de seguridad obligatorios, ni informes de riesgos, ni vigilancia posterior a la comercialización, ni obligación de publicar datos de pruebas”.
Un portavoz de OpenAI le dijo a Guardian Australia que la compañía había trabajado con más de 200 médicos de 60 países “para asesorar y mejorar los modelos que impulsan ChatGPT Health”.
“ChatGPT Health es un espacio dedicado que mantiene las conversaciones de salud separadas del resto de sus chats y garantiza una privacidad sólida de forma predeterminada”, dijo el portavoz.
Los datos de salud de ChatGPT están cifrados y sujetos a protección de privacidad de forma predeterminada.
El intercambio con terceros se produce con el consentimiento del usuario o bajo determinadas circunstancias establecidas en la política de privacidad de OpenAI.
La directora ejecutiva del Foro de Salud de los Consumidores de Australia, la Dra. Elizabeth Deveny, dijo que los crecientes costos médicos y los largos tiempos de espera para ver a un médico están impulsando a las personas hacia la IA.
Dijo que ChatGPT Health podría ser útil para ayudar a las personas a controlar enfermedades crónicas conocidas y encontrar formas de mantenerse saludables. La capacidad de la IA para proporcionar respuestas en diferentes idiomas “proporciona una ventaja real para las personas que no dominan el inglés”, afirmó.
Deveny teme que la gente tome los consejos de ChatGPT Health al pie de la letra y que “las grandes empresas tecnológicas globales se estén moviendo más rápido que los gobiernos” y establezcan sus propias reglas en torno a la privacidad, la transparencia y la recopilación de datos.
“Esta no es una pequeña organización sin fines de lucro que experimenta de buena fe. Es una de las empresas de tecnología más grandes del mundo.
“Cuando las plataformas comerciales establecen las normas, los beneficios tienden a recaer en las personas que ya tienen recursos, educación y conocimiento del sistema. Los riesgos recaen en quienes no los tienen”.
Dijo que la falta de acción de los gobiernos ha dejado a los consumidores de servicios de salud en gran medida abandonados a navegar solos por el cambio social provocado por la IA.
“Necesitamos una orientación clara, transparencia y educación del consumidor para que las personas puedan tomar decisiones informadas sobre si utilizar la IA para su salud y cómo hacerlo”, afirmó.
“No se trata de detener la IA. Se trata de actuar antes de que los errores, los sesgos y la información errónea se repitan rápidamente y a escala en formas que son casi imposibles de revertir”.