View Categories

The Clinician-AI Interface: Intended Use and Explainability in FDA-Cleared AI Devices for Medical Image Interpretation

2 min read

Autor(es): Stephanie L. McNamara, Paul H. Yi, William Lotter

Año: 2024

Referencia bibliográfica:
McNamara, S. L., Yi, P. H., & Lotter, W. (2024). The Clinician-AI Interface: Intended Use and Explainability in FDA-Cleared AI Devices for Medical Image Interpretation. npj Digital Medicine, 7, 80. https://doi.org/10.1038/s41746-024-01080-1

Categoría asignada: Asistencia sanitaria pública

Resumen:

El artículo The Clinician-AI Interface: Intended Use and Explainability in FDA-Cleared AI Devices for Medical Image Interpretation explora el estado actual de la integración de la inteligencia artificial (IA) en la interpretación de imágenes médicas, con un enfoque particular en los dispositivos aprobados por la FDA. Los autores examinan cómo estos sistemas se integran en los flujos de trabajo clínicos, la naturaleza de las salidas generadas por la IA y el grado de explicabilidad que ofrecen estos dispositivos a los médicos.

La investigación revela que las aplicaciones de IA en la medicina, especialmente en campos como la radiología, están evolucionando rápidamente, con un enfoque creciente en su integración clínica efectiva. El artículo destaca que un aspecto crucial es cómo la IA facilita la interacción del médico con las imágenes y sugiere que la “explicabilidad” es un factor fundamental para ganar la confianza y mejorar la toma de decisiones.

El estudio se basa en una base de datos de 104 productos de IA aprobados por la FDA desde 2016 hasta octubre de 2023, todos diseñados para la interpretación de imágenes médicas. Estos dispositivos caen bajo la categoría de detección asistida por computadora (CAD) y se agrupan en cinco tipos principales según su uso en los flujos de trabajo clínicos:

  1. CADt (triage): Priorizan los casos sospechosos para revisión rápida.
  2. CADe (detección): Marcan regiones de interés, como lesiones, en las imágenes.
  3. CADx (diagnóstico): Generan puntuaciones o clasificaciones para apoyar el diagnóstico, sin localizar directamente lesiones.
  4. CADe/x (detección y diagnóstico): Ofrecen tanto detección como diagnóstico.
  5. CADa (autónomo): Interpretan imágenes sin revisión clínica, siendo esta una categoría emergente y menos común.

El tipo de dispositivo más frecuente es el CADt, que representa el 59 % de los productos aprobados. Estos dispositivos, diseñados para acelerar la revisión de casos críticos, ofrecen predicciones binarias (sospechoso/no sospechoso) sin proporcionar explicaciones adicionales ni anotaciones visuales. En cambio, los dispositivos CADe y CADe/x son más comunes en el diagnóstico de cáncer de mama, proporcionando una mayor cantidad de salidas explicativas, como la ubicación de las lesiones mediante mapas de calor.

Un aspecto clave del estudio es la evaluación de la explicabilidad de los productos. Los autores clasifican la explicabilidad en varias categorías:

  • Localización: Utiliza marcadores visuales como cajas delimitadoras o mapas de calor para indicar dónde se encuentran las posibles anomalías.
  • Semántica: Descripciones textuales de las características observadas, como el tamaño o forma de una lesión.
  • Cuantitativa: Uso de puntuaciones o clasificaciones numéricas para cuantificar la sospecha de enfermedad.
  • Ejemplar: Comparación con ejemplos de datos similares utilizados durante el entrenamiento del modelo.

De acuerdo con los resultados, la localización es el tipo de explicabilidad más común en los dispositivos aprobados, mientras que muchos otros productos ofrecen pocas o ninguna salida explicativa adicional. Aunque las técnicas explicativas avanzadas, como los ejemplos contrafactuales, están ganando popularidad en la investigación, aún no se aplican de manera generalizada en los dispositivos clínicos aprobados por la FDA.

Los autores señalan que, si bien los dispositivos de IA, especialmente los CADt, pueden mejorar los tiempos de respuesta en la revisión de imágenes, hay limitaciones importantes que los médicos deben considerar. Por ejemplo, la FDA ha emitido advertencias sobre la dependencia excesiva en dispositivos CADt para la detección de obstrucciones en grandes vasos intracraneales, enfatizando que estos dispositivos no pueden proporcionar un diagnóstico definitivo y requieren la revisión humana.

En conclusión, el artículo enfatiza la importancia de mejorar la transparencia y la explicabilidad de los dispositivos de IA en la interpretación de imágenes médicas. A medida que los desarrolladores continúan optimizando estas herramientas, es crucial que tanto los médicos como los diseñadores consideren cómo la salida de la IA influye en la toma de decisiones clínicas. Además, la investigación destaca la necesidad de formación clínica en el uso de estos dispositivos para garantizar su adopción segura y efectiva en la práctica médica.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

MENU