Los investigadores también descubrieron que los médicos tenían más probabilidades de confiar en una explicación de IA si esta señalaba un área específica en una radiografía.
Si bien la inteligencia artificial (IA) es una herramienta tan nueva como revolucionaria en la medicina, los radiólogos si pueden confiar en sus consejos cuando se refieren a una parte específica de una radiografía, según un nuevo estudio. A pesar de ello subrayan la importancia de mantenerse en guardia y de desconfiar como antídoto contra el riesgo que puede suponer apoyarse en la automatización por la tendencia humana a confiar demasiado en los actos repetidos una y otra vez.
El informe explica que los médicos aprenden a través de años de formación y repetición a seguir un patrón o una lista de verificación. Un equipo de investigadores estadounidenses reclutó a 220 médicos en varios sitios del país encargados de revisar radiografías de tórax junto con consejos generados por IA.
¿Cómo afecta un consejo de IA a un diagnóstico?
Los participantes incluyeron radiólogos y médicos de medicina interna o de emergencia que tenían la tarea de interpretar radiografías con la ayuda de un asistente de IA. Los médicos podían aceptar, modificar o rechazar las sugerencias de la IA.
El estudio, publicado en la revista ‘Radiology‘, exploró cómo el tipo de consejo de IA, ya sea local o global, y su precisión afectaba al diagnóstico. Una explicación local es cuando la IA resalta áreas específicas de interés en una radiografía, mientras que una explicación global es cuando la IA proporciona imágenes de casos pasados similares para mostrar cómo hizo la sugerencia.
Si se equivoca la IA, la precisión del diagnóstico cae hasta el 26%
Cuando la IA proporcionó un consejo preciso, las explicaciones locales llevaron a los revisores a tener una tasa de precisión de diagnóstico del 92,8% y las explicaciones globales a una tasa de precisión del 85,3%.
“Descubrimos que las explicaciones locales mejoraron la precisión del diagnóstico y redujeron el tiempo de interpretación cuando el consejo de la IA era correcto”, dijo a ‘Euronews Health‘ el radiólogo Paul H. Yi, uno de los coautores del estudio y director de informática de imágenes inteligentes en el St. Jude Children’s Research Hospital.
Sin embargo, cuando el diagnóstico de la IA era incorrecto, la precisión del diagnóstico cayó al 23,6% para las explicaciones locales y al 26,1% para los médicos con explicaciones globales.
Estos hallazgos enfatizan la importancia de diseñar cuidadosamente las herramientas de IA. El diseño reflexivo de la explicación no es solo un complemento; es un factor fundamental para garantizar que la IA mejore la práctica clínica en lugar de introducir riesgos no deseados
Paul H. YiRadiólogo y coautor del estudio
“Estos hallazgos enfatizan la importancia de diseñar cuidadosamente las herramientas de IA. El diseño reflexivo de la explicación no es solo un complemento; es un factor fundamental para garantizar que la IA mejore la práctica clínica en lugar de introducir riesgos no deseados”, dijo Yi.
El tipo de explicación de la IA puede afectar a la confianza
Un hallazgo inesperado fue la rapidez con la que los médicos, tanto radiólogos como no radiólogos, confiaron en las explicaciones locales, incluso cuando la IA estaba equivocada.
Esto revela una idea sutil pero fundamental: el tipo de explicación de la IA puede moldear la confianza y la toma de decisiones de manera que los usuarios puedan ni siquiera darse cuenta
Paul H YiRadiólogo y coautor del estudio
Yi tiene varias sugerencias para mitigar este riesgo de “sesgo de automatización”, la tendencia humana a confiar demasiado en la automatización. Asegura que los médicos aprenden a través de años de formación y repetición a seguir un patrón o una lista de verificación. “La idea es que crea una rutina. Minimiza la variación que puede provocar que se produzcan errores inesperados“, dijo.
Sin embargo, la introducción de herramientas de IA añade un nuevo factor y puede hacer descarrilar esta rutina. “Tenemos que ceñirnos a nuestras listas de verificación y asegurarnos de cumplirlas. Pero imagino un futuro en el que nuestras listas de verificación realmente van a cambiar para incorporar la IA”, dijo Yi, añadiendo que la interacción entre humanos y ordenadores también debería estudiarse con factores como el estrés o el cansancio.