19.1 C
Aguascalientes
miércoles, octubre 9, 2024

Los oncólogos expresan preocupaciones éticas sobre la IA en la atención del cáncer

LÍNEA PRINCIPAL:

Una encuesta reciente destacó las preocupaciones éticas que tienen los oncólogos estadounidenses sobre el uso de la inteligencia artificial (IA) para ayudar a tomar decisiones sobre el tratamiento del cáncer y reveló algunas opiniones contradictorias sobre la mejor manera de integrar estas herramientas en la práctica. La mayoría de los encuestados, por ejemplo, dijeron que no se debería esperar que los pacientes entiendan cómo funcionan las herramientas de IA, pero muchos también sintieron que los pacientes podrían tomar decisiones de tratamiento basadas en recomendaciones generadas por IA. La mayoría de los oncólogos también se sentían responsables de proteger a los pacientes de la IA sesgada, pero pocos confiaban en poder hacerlo.

METODOLOGÍA:

  • La Administración de Alimentos y Medicamentos de EE.UU. ha aprobó cientos de herramientas de inteligencia artificial para su uso en diversas especialidades médicas durante las últimas décadas y, cada vez más, las herramientas de IA se están integrando en la atención del cáncer.
  • Sin embargo, la adopción de estas herramientas en oncología ha planteado cuestiones y preocupaciones éticas, incluidos desafíos relacionados con el sesgo, el error o el uso indebido de la IA, así como cuestiones que explican cómo un modelo de IA alcanzó un resultado.
  • En el estudio actual, los investigadores preguntaron a 204 oncólogos de 37 estados sus opiniones sobre las implicaciones éticas del uso de la IA para la atención del cáncer.
  • Entre los encuestados, el 64% eran hombres y el 63% eran blancos no hispanos; El 29% provenía de prácticas académicas, el 47% había recibido alguna educación sobre el uso de la IA en la atención médica y el 45% estaba familiarizado con los modelos de decisión clínica.
  • Los investigadores evaluaron las respuestas de los encuestados a varias preguntas, incluida la posibilidad de dar consentimiento informado para el uso de IA y cómo los oncólogos abordarían un escenario en el que el modelo de IA y el oncólogo recomendaran un régimen de tratamiento diferente.

LLEVAR:

  • En general, el 81% de los oncólogos apoyó tener el consentimiento del paciente para usar un modelo de IA durante las decisiones de tratamiento, y el 85% consideró que los oncólogos necesitaban poder explicar un modelo de decisión clínica basado en IA para usarlo en la clínica; sin embargo, sólo el 23% consideró que los pacientes también necesitaban poder explicar un modelo de IA.
  • Cuando un modelo de decisión de IA recomendó un régimen de tratamiento diferente al del oncólogo tratante, la respuesta más común (36,8%) fue presentar ambas opciones al paciente y dejar que el paciente decidiera. Los oncólogos de entornos académicos tenían aproximadamente 2,5 veces más probabilidades que los de otros entornos de dejar que el paciente decidiera. Alrededor del 34% de los encuestados dijeron que presentarían ambas opciones pero recomendarían el régimen del oncólogo, mientras que alrededor del 22% dijeron que presentarían ambas opciones pero recomendarían el régimen de IA. Un pequeño porcentaje sólo presentaría la pauta del oncólogo (5%) o la pauta de IA (alrededor del 2,5%).
  • Aproximadamente tres de cada cuatro encuestados (76,5%) estuvieron de acuerdo en que los oncólogos deberían proteger a los pacientes de las herramientas de IA sesgadas; sin embargo, solo uno de cada cuatro (27,9%) confiaba en poder identificar modelos de IA sesgados.
  • La mayoría de los oncólogos (91%) consideró que los desarrolladores de IA eran responsables de los problemas médico-legales asociados con el uso de la IA; menos de la mitad (47%) dijo que los oncólogos u hospitales (43%) compartían esta responsabilidad.

EN LA PRÁCTICA:

«En conjunto, estos datos caracterizan las barreras que pueden impedir la adopción ética de la IA en la atención del cáncer. Los hallazgos sugieren que la implementación de la IA en oncología debe incluir evaluaciones rigurosas de su efecto en las decisiones de atención, así como la responsabilidad de tomar decisiones cuando los problemas relacionados con la IA uso», concluyeron los autores.

FUENTE:

El estudio, con el primer autor Andrew Hantel, MD, del Dana-Farber Cancer Institute, Boston, fue publicado el mes pasado en Red JAMA abierta.

LIMITACIONES:

El estudio tuvo un tamaño de muestra y una tasa de respuesta moderados, aunque la demografía de los oncólogos participantes parece ser representativa a nivel nacional. El diseño del estudio transversal limitó la generalización de los hallazgos a lo largo del tiempo a medida que la IA se integra en la atención del cáncer.

DIVULGACIONES:

El estudio fue financiado por el Instituto Nacional del Cáncer, el Fondo de Investigación Dana-Farber McGraw/Patterson y el Premio al Líder Emergente de la Fundación Mark. Hantel informó haber recibido honorarios personales de AbbVie, AstraZeneca, el Revista estadounidense de atención administradaGenentech y GSK.

Leer mas

Leer más

Mas noticias

Verificado por MonsterInsights