Autor(es): Joschka Haltaufderheide y Robert Ranisch
Año: 2024
Referencia bibliográfica:
Haltaufderheide, J., & Ranisch, R. (2024). The ethics of ChatGPT in medicine and healthcare: A systematic review on Large Language Models (LLMs). npj Digital Medicine, 7, 183. https://doi.org/10.1038/s41746-024-01157-x
Categoría asignada: Ética y regulación
Resumen:
El artículo The Ethics of ChatGPT in Medicine and Healthcare: A Systematic Review on Large Language Models (LLMs) aborda las implicaciones éticas asociadas al uso de modelos de lenguaje grande (LLMs) como ChatGPT en el ámbito de la medicina y la atención sanitaria. Dado el rápido avance en la adopción de estas tecnologías en el sector salud, este trabajo realiza una revisión sistemática para mapear las preocupaciones éticas emergentes. Utilizando una búsqueda exhaustiva en bases de datos científicas y servidores de preimpresiones, los autores identificaron un total de 796 artículos, de los cuales 53 fueron analizados en profundidad. Estos trabajos abarcan diversas aplicaciones de los LLMs en el campo clínico, desde el diagnóstico hasta la consulta con pacientes.
Los autores destacan que los LLMs han mostrado gran potencial en tareas como el análisis de grandes volúmenes de datos no estructurados, la toma de decisiones clínicas, y la provisión de información personalizada. Sin embargo, también se señalan preocupaciones éticas significativas en áreas como la justicia, la transparencia, la privacidad, y la no maleficencia. Un aspecto particular que genera preocupación es la tendencia de estos modelos a generar contenido incorrecto o impreciso, también conocido como alucinación de IA. Estos errores, cuando se presentan en un contexto médico, pueden tener consecuencias graves, como proporcionar recomendaciones diagnósticas o de tratamiento incorrectas.
El análisis ético se organiza en torno a cuatro grandes áreas de aplicación de los LLMs: 1) aplicaciones clínicas, 2) soporte a pacientes, 3) apoyo a los profesionales de la salud, y 4) perspectivas de salud pública. En las aplicaciones clínicas, los LLMs se utilizan para apoyar el diagnóstico inicial y la estratificación de riesgos, lo que podría transformar la atención sanitaria al mejorar la eficiencia y reducir el tiempo de espera en entornos como las salas de emergencias. Sin embargo, se señala la necesidad de una supervisión humana cercana para evitar errores que podrían resultar en un daño significativo para los pacientes.
En cuanto al soporte a pacientes, los LLMs se están explorando para mejorar la comunicación médico-paciente, facilitando el acceso a información médica en lenguaje comprensible y superando barreras idiomáticas. Esto tiene el potencial de aumentar la autonomía de los pacientes y mejorar la toma de decisiones compartida. No obstante, se advierte que el uso de estos modelos por parte de personas legas puede generar riesgos adicionales, ya que los pacientes podrían confiar en información incorrecta sin la mediación de un profesional de la salud. Además, se plantea el riesgo de que los LLMs puedan perpetuar desigualdades al favorecer a ciertos grupos en detrimento de otros, debido a sesgos presentes en los datos de entrenamiento.
El artículo también discute el uso de LLMs para apoyar a los profesionales de la salud en tareas administrativas, como la generación de notas clínicas o la síntesis de interacciones con los pacientes. Esta automatización podría reducir la carga administrativa de los médicos, permitiéndoles dedicar más tiempo a la atención directa. Sin embargo, se subraya que, aunque estas herramientas prometen mejorar la eficiencia, también plantean el riesgo de una sobreconfianza en la tecnología, lo que podría llevar a una disminución de las habilidades clínicas de los profesionales y a una posible deshumanización del cuidado.
Finalmente, desde una perspectiva de salud pública, los LLMs podrían ser útiles para monitorear redes sociales y medios de comunicación en busca de indicios de brotes de enfermedades, mejorando la respuesta a amenazas sanitarias. Sin embargo, los autores advierten sobre el peligro de una infodemia impulsada por IA, donde la propagación masiva de información imprecisa o falsa podría desorientar al público y agravar problemas de salud pública.
En conclusión, los autores señalan que el uso de LLMs en el ámbito sanitario es una especie de “experimento social”, donde muchos de los beneficios y riesgos solo se harán evidentes después de su implementación generalizada. A medida que los LLMs se integran en la atención médica, es crucial que se desarrollen guías éticas claras y se mantenga una supervisión humana rigurosa para mitigar los riesgos y maximizar los beneficios de estas tecnologías.