¿ChatGPT transformará la atención médica?

 

 



ChatGPT y otros modelos de lenguaje extenso pueden mejorar la prestación de atención médica y la calidad de vida de los pacientes. Pero primero deberán adaptarse a las necesidades clínicas específicas.

 Los grandes modelos de lenguaje, como ChatGPT, utilizan el aprendizaje profundo (DL) para reproducir el lenguaje humano de una manera convincente y similar a la humana.  Son cada vez más comunes y ya se utilizan en marketing de contenidos, servicios al cliente y una variedad de aplicaciones comerciales.  Como resultado, es inevitable que los modelos lingüísticos también debuten pronto en el cuidado de la salud, un área en la que tienen un tremendo potencial para mejorar la salud y mejorar la vida de los pacientes, pero no sin escollos.

 La capacidad de ChatGPT para involucrar a las personas con una conversación similar a la humana sirve como un recordatorio de cuán importantes son el lenguaje y la comunicación para la experiencia y el bienestar humanos.  La comunicación efectiva a través del lenguaje ayuda a las personas a forjar relaciones con los demás, incluidas las relaciones entre pacientes y profesionales de la salud.

Una forma en que los modelos de lenguaje podrían mejorar la atención es aprendiendo y produciendo lenguaje para ayudar a los pacientes a comunicarse con los trabajadores de la salud y entre ellos.  Por ejemplo, podría ayudar a mejorar el cumplimiento de las prescripciones médicas, haciendo que el lenguaje sea más accesible para el paciente y reduciendo la posibilidad de errores de comunicación.  Además, dado que la calidad de las relaciones médico-paciente afecta los resultados de los pacientes en una variedad de condiciones que van desde la salud mental(1) hasta la obesidad(2) y el cáncer(3), es razonable suponer que el uso de modelos de lenguaje para fortalecer esas relaciones a través de una mejor comunicación tendría un impacto beneficioso para pacientes.

 Los modelos de lenguaje extenso también podrían ayudar con las intervenciones de salud que se basan en la comunicación entre pares no profesionales.  En un estudio reciente, un modelo de lenguaje(4) que fue entrenado para reescribir texto de una manera más empática facilitó la comunicación en un sistema de apoyo de salud mental entre pares, lo que mejoró las habilidades conversacionales de los no expertos.

Este ejemplo destaca el potencial del uso de la colaboración entre humanos y la inteligencia artificial para mejorar una variedad de tareas de salud basadas en la comunidad que dependen de la terapia autoadministrada o entre pares, como en la terapia cognitiva conductual.  En un contexto de recursos de atención médica limitados, junto con una creciente crisis de salud mental, según lo informado(5) por los Centros para el Control y la Prevención de Enfermedades de EE. UU., la aplicación de tales herramientas podría aumentar la cobertura de asistencia, especialmente en entornos que evitan la necesidad de atención médica especializada.

La comunicación del lenguaje puede ser tanto una intervención terapéutica, como en la psicoterapia, como el objetivo de la terapia, como en las deficiencias del habla, como la afasia.  Hay varios tipos de deterioro del lenguaje, con diferentes causas y condiciones coexistentes.  Los modelos de lenguaje podrían ser herramientas útiles para los enfoques de medicina personalizada. Por ejemplo, los pacientes con enfermedades neurodegenerativas pueden perder la capacidad de comunicarse a través del lenguaje hablado y perder progresivamente el vocabulario, lo que puede empeorar su aislamiento social y acelerar el proceso degenerativo.

Dado que los pacientes individuales a menudo presentan combinaciones únicas de patrones específicos de fenotipos neurodegenerativos, pueden beneficiarse de enfoques personalizados facilitados por la inteligencia artificial.  Los modelos de lenguaje también podrían ayudar a los pacientes con enfermedades neurodegenerativas a ampliar su vocabulario o comprender la información con mayor facilidad.  Pueden lograr esto complementando el lenguaje con otros medios o reduciendo la complejidad de la información que reciben los pacientes.

En cada uno de estos casos, el algoritmo se adaptaría específicamente a las necesidades de cada paciente individual.  Estos modelos también podrían desempeñar un papel importante en el desarrollo de las interfaces cerebro-computadora del habla, que están diseñadas para decodificar las señales cerebrales y el habla imaginaria en lenguaje vocalizado en personas con afasia. Dichas tecnologías no solo mejorarían la coherencia, sino que también reproducirían el estilo de comunicación y el significado del paciente con mayor precisión.

 Si bien su potencial es enorme, la mayoría de las aplicaciones de modelos de lenguaje basados ​​en DL en el cuidado de la salud aún no están listas para el horario de máxima audiencia.  Las aplicaciones clínicas específicas de los modelos de lenguaje basados ​​en DL requerirán una amplia capacitación en anotaciones de expertos para lograr estándares aceptables de rendimiento clínico y reproducibilidad.  Los primeros intentos(6) de utilizar estos modelos como herramientas de diagnóstico clínico sin capacitación adicional han mostrado un éxito limitado, y el rendimiento del algoritmo sigue siendo inferior al de los médicos en ejercicio.

Por lo tanto, si bien es tentador eludir este requisito tan costoso, confiando en grandes conjuntos de datos de entrenamiento y las capacidades de aprendizaje adaptativo de estas herramientas, la evidencia acumulada hasta ahora destaca la necesidad de una evaluación extensa y formal de los modelos de lenguaje contra las prácticas clínicas estándar después de que   han recibido formación para tareas clínicas específicas, como el asesoramiento diagnóstico y la clasificación.

El uso de ChatGPT u otros modelos de conversación avanzados como fuentes de asesoramiento médico por parte del público también debería ser motivo de preocupación. Parte del atractivo de estas nuevas herramientas se debe a que los humanos se sienten atraídos de forma innata hacia las entidades antropomórficas.  Las personas tienden a confiar de manera más natural en algo que imita los comportamientos y las respuestas humanas, como las respuestas generadas por ChatGPT.

En consecuencia, las personas podrían verse tentadas a utilizar modelos conversacionales para aplicaciones para las que no fueron diseñados y en lugar de un consejo médico profesional, como recuperar posibles diagnósticos de una lista de síntomas o derivar recomendaciones de tratamiento. De hecho, una encuesta informó que alrededor de un tercio de los adultos de EE. UU. buscaron asesoramiento médico en Internet para autodiagnósticos, y solo alrededor de la mitad de estos encuestados consultaron posteriormente a un médico sobre los resultados basados ​​en la web.

 Esto significa que el uso de ChatGPT y otros modelos de lenguaje en el cuidado de la salud requerirá una consideración cuidadosa para garantizar que se implementen medidas de seguridad para proteger contra usos potencialmente peligrosos, como eludir el consejo médico experto. Una de esas medidas de protección podría ser tan simple como una advertencia automática que se activa por consultas sobre consejos médicos o términos para recordar a los usuarios que los resultados del modelo no constituyen ni reemplazan la consulta clínica experta.

También es importante tener en cuenta que estas tecnologías están evolucionando a un ritmo mucho más rápido de lo que pueden hacer frente los reguladores, el gobierno y los defensores.  Dada su amplia disponibilidad y su potencial impacto social, es fundamental que todas las partes interesadas (desarrolladores, científicos, especialistas en ética, profesionales de la salud, proveedores, pacientes, defensores, reguladores y agencias gubernamentales) se involucren y participen en la identificación de la mejor manera de avanzar.  Dentro de un entorno regulatorio constructivo y alerta, los modelos de lenguaje basados ​​en DL podrían tener un impacto transformador en la atención médica, aumentando en lugar de reemplazar la experiencia humana y, en última instancia, mejorando la calidad de vida de muchos pacientes.

 

 

References

  • Horvath, A. O. & Luborsky, L. J. Consult. Clin. Psychol. 61, 561–573 (1993).
    2. Sturgiss, E. A., Sargent, G. M., Haesler, E., Rieger, E. & Douglas, K. Clin. Obese. 6, 376–379 (2016).
     3. Mack, J. W. et al. Cancer 115, 3302–3311 (2009).
     4. Sharma, A., Lin, I. W., Miner, A. S., Atkins, D. C. & Althoff, T. Nat. Mach. Intell. 5, 46–57 (2023).
     5. Centers for Disease Control and Prevention. Youth Risk Behavior Survey. Data Summary & Trends Report (CDC, 2021).
    6. Levine, D. M. et al. Preprint at medRxiv https://doi.org/10.1101/2023.01.30.23285067 (2023)
    Kuehn, B. M. JAMA 309, 756–757 (2013).

 

Ronald Palacios Castrillo, M.D.,PhD.