Author(s): Roanne van Voorst
Year: 2024
Bibliographic Reference (APA format): van Voorst, R. (2024). Challenges and Limitations of Human Oversight in Ethical Artificial Intelligence Implementation in Health Care: Balancing Digital Literacy and Professional Strain. Mayo Clinic Proceedings: Digital Health, 2(4), 559-563. https://doi.org/10.1016/j.mcpdig.2024.08.004
Assigned Category: Ética y regulación (Ethics and regulation)
Resumen:
El artículo explora los desafíos y limitaciones que enfrentan los profesionales de la salud en la supervisión de la inteligencia artificial (IA) en la atención médica, poniendo especial énfasis en la necesidad de equilibrar la alfabetización digital con las crecientes tensiones profesionales. El estudio, parte de un proyecto de investigación antropológica llamado Health-AI, analiza cómo el aumento de la tecnología algorítmica en el cuidado de la salud ha generado expectativas poco realistas sobre la capacidad de los profesionales para supervisar eficazmente las decisiones basadas en IA.
Uno de los principales problemas identificados es la idea obsoleta de que los médicos pueden tomar decisiones de forma independiente, sin la influencia de los algoritmos con los que interactúan. La IA, especialmente en su forma de caja negra, dificulta la verificación y comprensión por parte de los médicos, lo que agrava la tendencia humana a confiar en exceso en los sistemas algorítmicos o, por el contrario, a ignorarlos tras haber experimentado falsos positivos con frecuencia.
El artículo también señala que, aunque se promueve la co-creación entre profesionales de la salud y desarrolladores de IA, existen dificultades inherentes en estas colaboraciones, debido a la falta de conocimiento técnico de los médicos y las diferencias conceptuales entre las disciplinas. Además, la carga de trabajo adicional que implica el aprendizaje constante de nuevas tecnologías y la supervisión de IA en un entorno clínico ya saturado representa una carga considerable para los médicos.
Otra limitación discutida es la creciente necesidad de que los profesionales de la salud adquieran competencias digitales sin perder las habilidades humanas esenciales, como el juicio clínico basado en la intuición y la experiencia sensorial. Con la introducción de la IA, los médicos más jóvenes pueden depender más de los algoritmos, perdiendo así algunas habilidades diagnósticas intuitivas que caracterizan a los médicos más experimentados.
Finalmente, el artículo aboga por un enfoque más equilibrado para la implementación de la IA en el sector sanitario, que tenga en cuenta las limitaciones prácticas y éticas que enfrentan los profesionales de la salud. La autora subraya la importancia de no trasladar toda la responsabilidad de la supervisión de la IA a los médicos sin una capacitación adecuada y reconoce la necesidad de marcos de regulación más sólidos que integren la supervisión humana sin comprometer la atención al paciente.