Identifican posibles barreras a la aplicación ética de la IA en oncología

×
×
¿Estás seguro que deseas eliminar este contenido de tus favoritos?

04 ABR 2024

Identifican posibles barreras a la aplicación ética de la IA en oncología

 

Los avances recientes en modelos de inteligencia artificial (IA) tienen un gran potencial para mejorar la asistencia sanitaria, y esto podría ser especialmente relevante en oncología atendiendo a la complejidad creciente de la atención personalizada y a las diversas opciones de tratamiento disponibles.
En un trabajo reciente, especialistas estadounidenses consideran que para una aplicación óptima de la IA a la práctica oncológica es necesario conocer la opinión de todas las partes interesadas. Bajo esta premisa, elaboraron una encuesta para conocer la visión de los oncólogos sobre cuestiones éticas asociadas al uso de la IA en su práctica habitual.
Según explican en un artículo en JAMA Network Open, se recopilaron un total de 204 respuestas de oncólogos de todo el país, de los que casi dos tercios (63,7%) fueron hombres. Algo menos de la mitad (46,6%) tenía conocimientos sobre la aplicación de la IA en la asistencia sanitaria. Los resultados revelan áreas con grandes consensos, pero también ponen de relieve algunas paradojas.
 
 
La mayoría de los participantes considera necesario el consentimiento de los pacientes para recurrir a la IA
 
 
Entre los consensos destacan que ocho de cada diez encuestados (81,4%) consideraron necesario el consentimiento informado de los pacientes a la hora de recurrir a modelos de IA para la toma de decisiones sobre el tratamiento. Además, una amplia mayoría (90,7%) señaló que los desarrolladores de dicha tecnología deberían ser los responsables de posibles problemas asociados con su uso.
También una mayoría de participantes (84,8%) afirmó que los modelos de IA deberían ser explicables para los oncólogos, es decir, que la IA debería ser capaz de explicar cómo ha llegado a un determinado resultado. Sin embargo, solo uno de cada cinco (23,0%) optó por que también fueran explicables para los pacientes. Ahora bien, más de un tercio (36,8%) estuvo de acuerdo en que, ante una situación en que el modelo de IA recomendase un tratamiento distinto al planeado por el oncólogo, se deberían presentar ambas opciones al paciente para que decida.
Tres cuartas partes de los encuestados (76,5%) consideraron que se debía proteger a los pacientes de posibles modelos de IA sesgados. Sin embargo, menos de un tercio (27,9%) se mostraron preparados para poder hacerlo. Los autores consideran que estas divergencias de opinión podrían actuar como barreras para una adopción ética de la IA en la atención oncológica.
Referencia:
Hantel A, Walsh TP, Marron JM, et al. Perspectives of Oncologists on the Ethical Implications of Using Artificial Intelligence for Cancer Care. JAMA Netw Open. 2024;7(3):e244077. Published 2024 Mar 4. doi:10.1001/jamanetworkopen.2024.4077
OAD-ES-AMG-0001
 

×
Proceso de indentificación vía OWA
Estamos validando tus datos, en las próximas 48h el equipo de OWA (One Key authentication) se pondrá en conctacto contigo para finalizar el proceso de registro.
×
Necesitamos validar tus credenciales:
Para poder validar tus datos mediante OWA, necesitamos que modifiques tus datos haciendo clic AQUÍ
¡Muchas gracias!