View Categories

Faithful AI in Medicine: A Systematic Review with Large Language Models and Beyond

2 min read

Author(s): Qianqian Xie, Edward J. Schenck, He S. Yang, Yong Chen, Yifan Peng, Fei Wang

Year: 2023

Bibliographic Reference (APA format): Xie, Q., Schenck, E. J., Yang, H. S., Chen, Y., Peng, Y., & Wang, F. (2023). Faithful AI in Medicine: A Systematic Review with Large Language Models and Beyond. medRxiv. https://doi.org/10.1101/2023.04.18.23288752

Assigned Category: Veracidad de la información (Information veracity)

Resumen:

Este artículo realiza una revisión sistemática del problema de la veracidad en la inteligencia artificial (IA) médica, centrándose en modelos de lenguaje a gran escala (LLM) como GPT-4 y sus aplicaciones en la medicina. Los autores destacan cómo los sistemas de IA generativa pueden producir información inexacta o no confiable, un problema conocido como “factual inconsistency” o “hallucination”. Estos errores pueden tener consecuencias graves, como guiar incorrectamente investigaciones médicas o decisiones clínicas, afectando negativamente el cuidado de los pacientes.

El artículo identifica varias fuentes de estos problemas de veracidad, entre ellas las limitaciones de los modelos de lenguaje preentrenados (PLM) y los datos insuficientes o desactualizados en los que se entrenan. A pesar de los avances recientes en la incorporación de conocimientos médicos a los modelos, como el uso de bases de datos biomédicas, los errores factuales persisten, especialmente en tareas como la generación de informes de radiología, la respuesta a preguntas clínicas y la simplificación de textos médicos.

Entre las soluciones propuestas, se menciona la necesidad de mejorar los métodos de preentrenamiento y la incorporación explícita de conocimientos médicos en los modelos, además de la creación de métricas automáticas más precisas para evaluar la consistencia factual. También se propone desarrollar bases de datos a gran escala que permitan medir de manera efectiva la veracidad de los sistemas de IA en diferentes tareas médicas.

En conclusión, los autores enfatizan la importancia de que los investigadores y profesionales comprendan los riesgos asociados con el uso de IA en la medicina, especialmente en relación con la veracidad de la información generada. El artículo plantea que, aunque los LLM tienen un potencial transformador, es crucial continuar desarrollando estrategias que mitiguen los errores factuales y mejoren la seguridad y confiabilidad en las aplicaciones médicas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

MENU