En entornos de investigación clínica, la implementación de sistemas basados en
inteligencia artificial (IA) promete mejorar, por ejemplo, la eficiencia a la hora de resumir o interpretar información compleja. Sin embargo, dicha tecnología también supone un
riesgo, puesto que las denominadas «alucinaciones» de los modelos pueden generar citaciones inventadas y referencias sin verificar en los flujos de trabajo científicos.
Esto puede ser un problema en sectores altamente regulados como el sanitario y el farmacéutico, en que la integridad científica es esencial. En un artículo en
MedTech Intelligence, un experto estadounidense aborda esta problemática y propone estrategias para integrar la IA en los flujos de trabajo científicos capaces de minimizar estos riesgos.
El autor pone el acento en tres aspectos clave que obligan a replantearse la forma en que las herramientas de IA se implementan y se utilizan, con una tendencia cada vez mayor a huir de modelos generalistas por otros más adaptados al contexto en el que deben aplicarse.
Es necesario que los sistemas de IA sean transparentes para evaluar su fiabilidad
Un primer aspecto consiste en implementar sistemas de IA en base a materiales de referencia, como ensayos clínicos, informes de estudios, fichas técnicas, etc. de modo que estos sean el único origen posible de citaciones y referencias, lo que reduce la probabilidad de obtener respuestas con contenidos inventados.
En segundo lugar, el especialista apuesta por flujos de trabajo con datos segmentados en conjuntos más pequeños, pero relevantes y estructurados, lo que ayuda a reducir el riesgo de omisiones o distorsiones. El tercer aspecto consiste en dotar al sistema de diversas capas de validación a lo largo del flujo de trabajo, lo que permite verificar los resultados antes de dar el siguiente paso.
Además, el autor también pone el acento en la necesidad de que los sistemas de IA sean transparentes para poder evaluar su fiabilidad. En cualquier caso, considera que estas herramientas deben considerarse un elemento de apoyo bajo supervisión humana, que va a seguir siendo esencial, tanto para orientar al modelo como para validar sus resultados, entre otros aspectos.
OAD-ES-AMG-0001