Author(s): Sara Gerke, Boris Babic, Theodoros Evgeniou, I. Glenn Cohen
Year: 2020
Bibliographic Reference (APA format):
Gerke, S., Babic, B., Evgeniou, T., & Cohen, I. G. (2020). The need for a system view to regulate artificial intelligence/machine learning-based software as medical device. npj Digital Medicine, 3(53), 1-4. https://doi.org/10.1038/s41746-020-0262-2
Assigned Category: Ética y regulación (Ethics and regulation)
Resumen:
Este artículo aborda la necesidad de adoptar una visión sistémica para la regulación de los productos de inteligencia artificial (IA) y aprendizaje automático (ML) en medicina, particularmente aquellos clasificados como Software as a Medical Device (SaMD). Los autores argumentan que, en lugar de evaluar los productos de IA como elementos aislados, los reguladores, como la FDA en los EE. UU., deben considerar el sistema completo en el que estos productos operan, incluyendo las interacciones con el personal médico, las políticas de reembolso y otros factores organizacionales.
La IA y el ML tienen un gran potencial para mejorar los sistemas de salud, proporcionando diagnósticos más precisos y recomendaciones de tratamiento individualizadas. Sin embargo, la naturaleza dinámica de los algoritmos de IA plantea desafíos para los reguladores, como la evolución de los algoritmos con el tiempo a medida que aprenden de nuevos datos. El enfoque tradicional basado en productos, que se utiliza para dispositivos médicos convencionales, no es suficiente para abordar estos desafíos debido a la complejidad de las interacciones entre humanos y máquinas y la posibilidad de variaciones en el rendimiento en diferentes entornos clínicos.
El artículo discute varios ejemplos, como el caso del IDx-DR, el primer sistema autónomo aprobado por la FDA para la detección de retinopatía diabética. Aunque este producto recibió la autorización de comercialización, sigue estando vinculado a un sistema más amplio que incluye la intervención de médicos y decisiones de reembolso por parte de las aseguradoras.
Finalmente, los autores sugieren que los reguladores deben avanzar hacia un enfoque que evalúe no solo los productos de IA, sino también los sistemas en los que operan, exigiendo pruebas en entornos reales y una mayor supervisión postcomercialización. Esto implicaría un cambio importante en la forma en que se regulan estos productos, lo que podría mejorar la seguridad y eficacia de las herramientas de IA en la atención médica.