¿Puede la IA generar artículos médicos fraudulentos que parecen legítimos?

×
×
¿Estás seguro que deseas eliminar este contenido de tus favoritos?

08 JUN 2023

¿Puede la IA generar artículos médicos fraudulentos que parecen legítimos?

 

Según los resultados de un trabajo realizado por especialistas checos, la inteligencia artificial (IA) puede generar un artículo médico totalmente inventado que parece real, pero con imprecisiones y errores que no escapan a ojos de lectores avezados.
Los autores reconocen que los grandes modelos lingüísticos (LLM, por las siglas en inglés) ofrecen ventajas a la hora de elaborar manuscritos científicos, como una mayor eficiencia en la creación y edición del documento, así como en el análisis de datos. Sin embargo, existe preocupación ante la posibilidad de elaborar artículos fraudulentos mediante IA que parezcan reales.
Por ello se propusieron evaluar la capacidad de ChatGPT, una IA conversacional alimentada por un LLM, para generar un artículo sobre neurocirugía de alta calidad capaz de ser aceptado para su publicación en la revista PLoS Medicine.
 
 
En respuesta a peticiones de los autores, el modelo de IA generó un artículo inventado pero convincente en alrededor de una hora
 
 
Los autores plantearon preguntas y peticiones al modelo de IA para que generara un artículo científico con todas las secciones habituales (resumen, introducción, material y métodos, resultados, discusión y referencias), así como tablas basadas en los resultados. Para mejorar la calidad de los resultados, los autores fueron refinando las peticiones a medida que ChatGPT iba ofreciendo respuestas.
Publicado en el Journal of Medical Internet Research, el trabajo pone de relieve que el modelo de IA es capaz de crear un artículo totalmente inventado de forma convincente. El artículo generado contenía poco menos de 2.000 palabras y 17 referencias, y todo el proceso de creación implicó aproximadamente una hora. Dos herramientas para detectar manuscritos generados por IA arrojaron resultados no concluyentes para el artículo.
No obstante, la revisión minuciosa por parte de expertos en neurocirugía, psiquiatría y estadística reveló algunos problemas e imprecisiones. Por ejemplo, ocho de las 17 referencias eran erróneas o incorrectas. De este modo, el artículo elaborado por ChatGPT necesitaría mejoras a cargo de especialistas para dejarlo listo para su publicación.
Aún así, los autores destacan la necesidad de elaborar guías éticas y de buenas prácticas para el uso de la IA en la investigación y comunicación de los resultados médicos, incluyendo estrategias para verificar la precisión y la autenticidad del contenido, así como mecanismos para prevenir y detectar el fraude.
Referencia
Májovský M, Černý M, Kasal M, Komarc M, Netuka D. Artificial Intelligence Can Generate Fraudulent but Authentic-Looking Scientific Medical Articles: Pandora's Box Has Been Opened. J Med Internet Res. 2023;25:e46924. Published 2023 May 31. doi:10.2196/46924
OAD-ES-AMG-0001
 

×
Proceso de indentificación vía OWA
Estamos validando tus datos, en las próximas 48h el equipo de OWA (One Key authentication) se pondrá en conctacto contigo para finalizar el proceso de registro.
×
Necesitamos validar tus credenciales:
Para poder validar tus datos mediante OWA, necesitamos que modifiques tus datos haciendo clic AQUÍ
¡Muchas gracias!