Nuevo estudio encuentra que ChatGPT supera a los médicos humanos en calidad y empatía de las respuestas a las preocupaciones de los pacientes


 

Aunque la inteligencia artificial no reemplazará a su médico en el corto plazo, un nuevo estudio descubrió que tecnologías como ChatGPT podrían mejorar la experiencia de los pacientes al proporcionar respuestas a sus preguntas de atención médica que son más precisas y de una manera que perciben como más empática que las respuestas de médicos humanos.



El estudio, que aparece en JAMA Internal Medicine, comparó las respuestas escritas de médicos humanos y las de ChatGPT con preguntas de salud del mundo real. Un panel de profesionales de la salud con licencia que evaluó las respuestas prefirió las respuestas de ChatGPT el 79 % de las veces y las encontró más empáticas y de mayor calidad.

La demanda de médicos para responder preguntas a través de mensajes electrónicos de pacientes en estos días es abrumadora, por lo que no sorprende que los médicos no solo experimenten agotamiento, sino también que la calidad de esas respuestas a veces se resienta. Este estudio es evidencia de que las herramientas de AI pueden hacer médicos más eficientes y precisos, y pacientes más felices y saludables, dijo el coautor del estudio Mark Dredze, profesor asociado de ciencias de la computación en la Escuela de Ingeniería Whiting de la Universidad Johns Hopkins, quien asesoró al equipo de investigación sobre las capacidades de los grandes modelos de lenguaje. Dredze también es director de investigación (fundamentos de AI) en Johns Hopkins AI-X Foundry, que impulsa la investigación de AI y sus aplicaciones en salud, medicina y seguridad con el objetivo de comprender y mejorar la condición humana.

=> Recibir por Whatsapp las noticias destacadas

Los resultados brindan una visión preliminar del importante papel que los asistentes de inteligencia artificial podrían desempeñar en el cuidado de la salud.

Las oportunidades para mejorar la atención médica con AI son enormes. La atención aumentada por AI es el futuro de la medicina.

El equipo de investigación detrás del estudio se dispuso a responder la pregunta: ¿Puede ChatGPT responder con precisión a los tipos de preguntas que los pacientes envían a sus médicos?

Para obtener una muestra grande y diversa de preguntas sobre atención médica y respuestas de médicos que no incluían información personal identificable, el equipo recurrió a AskDocs de Reddit, un foro de redes sociales donde los pacientes publican preguntas médicas a las que responden los médicos.

r/AskDocs es un subreddit con aproximadamente 452000 miembros que publican preguntas médicas y profesionales de la salud verificados envían respuestas. Si bien cualquiera puede responder a una pregunta, los moderadores verifican las credenciales de los profesionales de la salud y las respuestas muestran el nivel de credenciales del encuestado. El resultado es un conjunto amplio y diverso de preguntas médicas de los pacientes y las correspondientes respuestas de profesionales médicos autorizados.

Si bien algunos pueden preguntarse si los intercambios de preguntas y respuestas publicados en las redes sociales son una forma justa de probar esto, los miembros del equipo clínico señalaron que los intercambios reflejaban su experiencia clínica.

El equipo muestreó aleatoriamente 195 intercambios de AskDocs en los que un médico verificado respondió a una pregunta pública. El equipo proporcionó la pregunta original a ChatGPT y le pidió que escribiera una respuesta. Un panel de tres profesionales de la salud con licencia evaluó cada pregunta y las respuestas correspondientes y desconocía si la respuesta procedía de un médico o de ChatGPT. Compararon las respuestas en función de la calidad de la información y la empatía, y señalaron cuál preferían.

¿El resultado? El panel de evaluadores de profesionales de la salud prefirió las respuestas de ChatGPT a las respuestas de los médicos casi el 80 % de las veces.

Los mensajes de ChatGPT respondieron con información matizada y precisa que a menudo abordaba más aspectos de las preguntas del paciente que las respuestas del médico.

Además, las respuestas de ChatGPT obtuvieron una calificación de calidad significativamente más alta que las respuestas de los médicos: las respuestas de calidad buena o muy buena fueron 3,6 veces más altas para ChatGPT que para los médicos (médicos 22,1 % versus ChatGPT 78,5 %). Las respuestas también fueron más empáticas: las respuestas empáticas o muy empáticas fueron 9,8 veces más altas para ChatGPT que para los médicos (médicos 4,6 % versus ChatGPT 45,1 %).

Ha habido varios estudios que muestran que estos modelos de AI pueden pasar preguntas sobre licencias médicas, pero eso no significa que brindarían buenas respuestas a preguntas de personas reales. Este estudio muestra que pueden. No se propone que construyamos médicos de AI, pero los resultados sugieren que los médicos podrían ser más efectivos con la ayuda de la AI.

Además de mejorar el flujo de trabajo, las inversiones en la mensajería del asistente de AI podrían afectar la salud del paciente y el desempeño del médico.

Podríamos usar estas tecnologías para capacitar a los médicos en la comunicación centrada en el paciente, eliminar las disparidades de salud que sufren las poblaciones minoritarias que a menudo buscan atención médica a través de mensajes, construir nuevos sistemas de seguridad médica y ayudar a los médicos brindando una atención más eficiente y de mayor calidad. Cuando los médicos están abrumados, la empatía con sus pacientes puede ser lo primero que falle. La empatía es fundamental en la atención médica clínica: un paciente no escucha a un médico si no se siente escuchado. Este estudio es evidencia de que la AI podría ayudar a los médicos a mantener una comunicación empática y certera con sus pacientes.

 

 

Ronald Palacios Castrillo, M.D., PhD.

 

ChatGPT aprende a sustituir al personal humano: ¿a qué oficios afectará más?