¿Puede la IA generativa producir desinformación sobre salud de forma masiva?

×
×
¿Estás seguro que deseas eliminar este contenido de tus favoritos?

23 NOV 2023

¿Puede la IA generativa producir desinformación sobre salud de forma masiva?

 

Las herramientas de inteligencia artificial (IA) generativa pueden usarse para producir gran cantidad de contenidos falsos sobre salud dirigidos a una amplia variedad de segmentos poblacionales y de forma alarmantemente rápida, según un estudio realizado por farmacólogos de la Flinders University, en Adelaida (Australia).
Los investigadores recurrieron a tres herramientas de IA disponibles para generar textos, imágenes y vídeo con contenidos engañosos para desinformar sobre dos aspectos de interés en salud pública, como son las vacunas y el vapeo. El trabajo se ha publicado recientemente en la revista JAMA Internal Medicine.
En poco menos de una hora, los autores consiguieron que ChatGPT produjera 102 posts con contenido falso sobre vacunas y vapeo. Estos artículos pretendían influir en distintos grupos de población, como adultos jóvenes, personas mayores, embarazadas o enfermos crónicos, incluían testimonios de falsos médicos y pacientes, e incorporaban referencias de aspecto científico.
 
 
Los autores reclaman una vigilancia estricta de la IA para minimizar riesgos en salud
 
 
Por otro lado, mediante DALL-E 2, los autores generaron, en menos de dos minutos, una veintena de imágenes realistas dirigidas a difundir información falsa sobre los citados temas. A través de HeyGen, elaboraron en unos cinco minutos un vídeo falso en el que un profesional de la salud desinformaba sobre vacunas. Además, dicho vídeo podía adaptarse a más de 40 idiomas distintos.
El trabajo, que incluye la expresión “armas de desinformación masiva”, alerta de que la IA puede generar rápidamente gran cantidad de contenidos con potencial para incidir en aspectos de salud pública. Es por ello que reclama una vigilancia estricta de estas herramientas mediante la colaboración entre profesionales sanitarios, desarrolladores y responsables gubernamentales.
Para abordar esta problemática, los autores consideran que los pilares de la farmacovigilancia —transparencia, supervisión y regulación— podrían servir de ejemplo sobre cómo proteger a los ciudadanos y a la salud pública ante los riesgos relacionados con el rápido avance de la IA.
Fuente:
Referencia
Menz BD, Modi ND, Sorich MJ, Hopkins AM. Health Disinformation Use Case Highlighting the Urgent Need for Artificial Intelligence Vigilance: Weapons of Mass Disinformation [published online ahead of print, 2023 Nov 13]. JAMA Intern Med. 2023;10.1001/jamainternmed.2023.5947. doi:10.1001/jamainternmed.2023.5947
OAD-ES-AMG-0001
 

×
Proceso de indentificación vía OWA
Estamos validando tus datos, en las próximas 48h el equipo de OWA (One Key authentication) se pondrá en conctacto contigo para finalizar el proceso de registro.
×
Necesitamos validar tus credenciales:
Para poder validar tus datos mediante OWA, necesitamos que modifiques tus datos haciendo clic AQUÍ
¡Muchas gracias!