El estudio, publicado en JAMA Internal Medicine, arroja nueva luz sobre el papel de ChatGPT y la inteligencia artificial como asistentes médicos. Para ello, se compararon respuestas escritas por profesionales de la salud con respuestas de instrumentos de salud reales. Sorprendentemente, un grupo de expertos y profesionales de la salud de alto nivel eligieron las respuestas de ChatGPT el 79% de las veces porque sintieron que eran más empáticos y de mayor calidad que las proporcionadas por los médicos.
Para hacerlo, los autores del estudio se propusieron responder las siguientes preguntas: ¿Puede ChatGPT responder con precisión a las preguntas que los pacientes les hacen a sus médicos? Si es así, los modelos de IA podrían integrarse en los sistemas de atención médica para mejorar las respuestas de los médicos a las preguntas enviadas por los pacientes y reducir la creciente carga sobre el talento de la atención médica.
¿Cómo se llegó a esta nueva conclusión sobre ChatGPT?
Al investigar herramientas para su uso en inteligencia artificial, el equipo recurrió a una de las redes sociales más populares de los Estados Unidos: AskDocs de Reddit. En este espacio digital, millones de pacientes hacen preguntas médicas que solo un técnico o profesional de la salud puede responder.
Luego se tomó una muestra aleatoria de 195 intercambios de AskDocs en los que un médico examinado respondió una pregunta pública. La evaluación de la herramienta de IA se tomó de manera bastante literal; es decir, la pregunta original se hizo en ChatGPT y se le pidió que escribiera una respuesta.
Como se mencionó al comienzo del artículo, un panel de tres profesionales de la salud evaluó cada pregunta y las respuestas correspondientes, sin saber si la respuesta provenía del médico o de ChatGPT.
Como parte de la encuesta, los profesionales seleccionados compararon las respuestas en función de la calidad de la información y la empatía, e indicaron cuál preferían. La calidad de las respuestas de ChatGPT fue significativamente mayor que la de los médicos: ChatGPT tuvo 3,6 veces más respuestas buenas o muy buenas que los médicos (médicos 22,1 % frente a ChatGPT 78,5 %). Las respuestas también fueron más empáticas: los ChatGPT fueron 9,8 veces más empáticos o muy empáticos que los médicos (4,6 % de médicos frente a 45,1 % de ChatGPT).
«Estos resultados muestran que herramientas como ChatGPT pueden ser efectivas para escribir recomendaciones médicas personalizadas y de alta calidad para que las revisen los médicos. Este proceso se está iniciando en UCSD Health», dijo Christopher Longhurst, director médico y director digital de UCSD, el Dr. diego dijo saludable. «Nuestra investigación es una de las primeras en mostrar cómo los asistentes de IA pueden resolver problemas de salud del mundo real», dijo.
El estudio fue realizado por John W. Ayers, del Instituto Qualcomm de la Universidad de California en San Diego, proporciona la primera perspectiva sobre el papel de los asistentes de IA en medicina.
Discussion about this post