Author(s): Avishek Choudhury, Safa Elkefi, Achraf Tounsi
Year: 2024
Bibliographic Reference (APA format):
Choudhury, A., Elkefi, S., & Tounsi, A. (2024). Exploring factors influencing user perspective of ChatGPT as a technology that assists in healthcare decision making: A cross-sectional survey study. PLOS ONE, 19(3), e0296151. https://doi.org/10.1371/journal.pone.0296151
Assigned Category: Asistencia sanitaria pública (Public healthcare assistance)
Resumen:
Este estudio investiga las percepciones de los usuarios sobre el uso de ChatGPT para la toma de decisiones en el cuidado de la salud, basándose en una encuesta transversal realizada en Estados Unidos. El enfoque central del artículo es evaluar cómo los usuarios valoran la competencia, fiabilidad, transparencia, confianza, seguridad y capacidad de persuasión de ChatGPT en el contexto de consultas médicas. Los resultados revelan que la confianza y la competencia percibida de ChatGPT son fundamentales para que los usuarios lo utilicen en la toma de decisiones de salud.
De los 607 participantes, 44 utilizaron ChatGPT específicamente para consultas médicas. El estudio identificó que la transparencia y la confianza están altamente correlacionadas con la percepción de que ChatGPT ayuda a tomar decisiones informadas. En particular, los usuarios valoran la seguridad y la capacidad de ChatGPT para no manipular sus respuestas cuando se trata de consultas relacionadas con la salud. El análisis de regresión lineal bayesiana mostró que los modelos que integran los factores de confianza y competencia explican el 57% de la variabilidad en el uso de ChatGPT para la toma de decisiones médicas.
A través de la investigación, se concluye que los usuarios que confían en la tecnología y perciben que esta es competente son más propensos a utilizar ChatGPT para decisiones importantes en salud. Sin embargo, también se identificaron riesgos como la posible dependencia excesiva de la IA para decisiones críticas, lo que podría llevar a diagnósticos incorrectos o la toma de decisiones basada en información inexacta. Los autores enfatizan la necesidad de establecer pautas claras para el uso seguro y efectivo de IA en el ámbito médico, asegurando la integración adecuada de estas tecnologías en los sistemas de salud sin comprometer la seguridad del paciente.
El estudio sugiere que, aunque ChatGPT puede ser una herramienta útil en la atención médica, es crucial que los usuarios tengan una comprensión clara de sus limitaciones y que se implemente con supervisión humana. Se recomienda una mayor investigación para abordar cuestiones éticas, como la privacidad de los datos y los sesgos algorítmicos, que podrían influir en la equidad y la calidad de la atención proporcionada por sistemas de IA como ChatGPT.