Autor(es): Eleonore Fournier-Tombs, Juliette McHardy
Año: 2024
Referencia bibliográfica:
Fournier-Tombs, E., & McHardy, J. (2024). A Medical Ethics Framework for Conversational Artificial Intelligence. Journal of Medical Internet Research, 25, e43068. https://doi.org/10.2196/43068
Categoría asignada: Ética y regulación
Resumen:
El artículo A Medical Ethics Framework for Conversational Artificial Intelligence, escrito por Eleonore Fournier-Tombs y Juliette McHardy, presenta un marco ético para la implementación de chatbots conversacionales en la atención médica, especialmente aquellos que emplean modelos de lenguaje avanzados como GPT-3 y GPT-4. Dada la creciente adopción de la inteligencia artificial (IA) conversacional en medicina, los autores examinan los riesgos éticos involucrados y sugieren principios para mitigar estos problemas. El estudio ofrece un análisis detallado de los desafíos planteados por la interacción entre los pacientes y los chatbots, especialmente en áreas rurales o comunidades desatendidas, donde los chatbots pueden ser el único punto de contacto para recibir orientación médica.
El artículo explica que la IA conversacional, desde su lanzamiento en 2020, ha sido empleada para múltiples propósitos médicos, como ofrecer recomendaciones relacionadas con el COVID-19, proporcionar asesoramiento sobre tratamientos y en algunos casos, emitir recetas. Este uso extensivo de la IA, acelerado durante la pandemia, ha planteado cuestiones importantes sobre los límites entre la interacción humana y la automatización en el ámbito sanitario. Los autores reconocen que, aunque los chatbots pueden ser útiles para aliviar la sobrecarga de los sistemas de salud, también representan una amenaza para los principios éticos de la medicina, tales como la justicia, la beneficencia, la autonomía y la no maleficencia.
Uno de los principales riesgos identificados en el artículo es la posibilidad de discriminación y estereotipos en los chatbots. Los autores mencionan varios estudios que documentan cómo los modelos de IA, entrenados en datos sesgados, pueden perpetuar estereotipos dañinos, como la discriminación de género o racial. Un ejemplo citado es que algunos chatbots han demostrado un rendimiento inferior en la comprensión de temas relacionados con la salud femenina en comparación con la salud masculina. Además, el uso de IA conversacional en comunidades vulnerables plantea riesgos adicionales, como la exclusión de grupos marginalizados debido a la falta de acceso a tecnología o habilidades digitales.
Otro desafío ético crucial es la protección de la privacidad de los datos. Los chatbots recopilan y procesan una gran cantidad de información sensible sobre los pacientes, lo que los expone a problemas de gobernanza de datos y posibles violaciones de la privacidad. Los autores abogan por un sistema más robusto de gobernanza de datos que asegure la confidencialidad de la información médica y proponga mecanismos claros para el consentimiento informado.
El artículo también plantea preocupaciones sobre la confiabilidad de los chatbots médicos. Debido a que los sistemas de IA no son infalibles, pueden cometer errores al ofrecer diagnósticos o recomendaciones. En este contexto, los autores destacan el riesgo de que los pacientes confíen excesivamente en las respuestas generadas por la IA, lo que podría socavar la confianza en los profesionales de la salud o llevar a decisiones médicas erróneas. Además, argumentan que la dependencia de estos sistemas puede erosionar la relación médico-paciente y fomentar una “decadencia de la confianza” en el sistema de salud.
Para abordar estos desafíos, Fournier-Tombs y McHardy proponen un marco basado en los cuatro principios fundamentales de la ética médica: beneficencia, no maleficencia, autonomía y justicia. Este marco se puede utilizar para evaluar y mitigar los riesgos que presentan los chatbots conversacionales en la práctica médica. Por ejemplo, sugieren que las interacciones automatizadas deben diseñarse para maximizar los beneficios para los pacientes y reducir cualquier daño potencial (beneficencia y no maleficencia), mientras que se asegura que los pacientes mantengan el control sobre sus decisiones y datos (autonomía). Asimismo, la justicia se aborda garantizando que los chatbots sean accesibles para todos los grupos, sin discriminación ni exclusión.
El artículo concluye con una llamada a desarrollar regulaciones más estrictas para la IA en el campo de la salud, basadas en los principios éticos aquí descritos. Los autores argumentan que a medida que los chatbots conversacionales se vuelven más realistas y capaces de realizar tareas tradicionalmente llevadas a cabo por médicos, es esencial un marco ético para guiar su uso adecuado y seguro. Este marco también podría adaptarse a nivel local según las normativas de ética médica en diferentes regiones, lo que permitiría un despliegue responsable de la IA conversacional en salud.
En resumen, este artículo ofrece una evaluación detallada de los riesgos éticos asociados con los chatbots médicos, proponiendo un marco sólido para su evaluación e implementación segura, lo que subraya la importancia de alinearse con principios éticos en el desarrollo de tecnologías sanitarias emergentes.