Cómo apoyar la transición hacia una atención sanitaria basada en IA

 

Para hacer que los sistemas de salud sean más sostenibles a largo plazo, incentivar la inteligencia artificial (IA) y las tecnologías digitales que se basen en pruebas cuidadosas y validación en el mundo real.



En un futuro no muy lejano, la población mundial parecerá mucho más vieja de lo que solía ser. Un informe reciente de la OMS estimó que 1 de cada 6 personas tendrá más de 60 años en 2030. Los sistemas de salud en los países de altos ingresos ya están experimentando la presión de los cambios demográficos, a medida que una población en edad de trabajar cada vez más reducida necesita atender a una población que envejece cada vez más. Aunque la esperanza de vida ha aumentado constantemente en los últimos 20 años en la mayoría de los países, la esperanza de vida saludable no ha crecido al mismo ritmo.

En este contexto, los gobiernos y otras fuerzas sociales están dirigiendo su atención a herramientas digitales y computacionales que pueden reducir el costo de los sistemas de salud actuales sin comprometer los estándares de atención, posiblemente incluso aumentando su alcance y calidad. Estudios recientes, han ofrecido una idea de cómo podría ser el futuro, mostrando que los algoritmos de visión por computadora pueden actuar eficazmente como «ojos» adicionales en la detección del cáncer de mama, aumentando la precisión de la detección de casos.

Confiamos en que esta transición hacia una atención sanitaria «impulsada por la IA» se producirá y que tiene el potencial de generar un bien público generalizado. Al mismo tiempo, creemos que estos beneficios se obtendrán de manera más constante y rápida con estudios clínicos cuidadosamente diseñados y la implementación basada en evidencia de algoritmos y dispositivos de IA en el mundo real. Estamos ansiosos por apoyar a los investigadores y médicos en este esfuerzo y la implementación clínica seguirá siendo una de nuestras principales prioridades para el contenido de medicina digital.

El potencial transformador de la IA no está exento de riesgos. Las preguntas sobre cómo se deben evaluar las intervenciones de IA o cuándo una intervención está lista para el horario de máxima audiencia aún están abiertas. En este sentido, el hecho de que los reguladores estén luchando por mantenerse al día con el ritmo de las innovaciones tecnológicas en este campo no ayuda. En la actualidad, las herramientas digitales y computacionales todavía flotan en la zona gris de los dispositivos médicos, para los cuales a menudo no se requiere una evaluación clínica prospectiva. Los temores sobre el uso nocivo de la IA, en particular la introducción de sesgos algorítmicos que podrían distorsionar o impedir que alguien reciba la atención adecuada, son reales y podrían ser catastróficos si se amplían. Contratiempos evitables como estos sólo ralentizarían la adopción de herramientas de IA en la clínica y, en última instancia, aumentarían sus costos a largo plazo. Entonces, ¿cuál es el camino a seguir para aprovechar el inmenso potencial de la IA?

En primer lugar, las pruebas y la validación prospectivas son cruciales. Existe amplia evidencia de que los modelos de IA tienen problemas de generalización, lo que significa que una herramienta de IA entrenada en un conjunto de datos puede no ofrecer predicciones precisas cuando se expone a nuevos datos. Por ejemplo, una revisión metodológica de los cientos de modelos de aprendizaje automático desarrollados para la detección de COVID-19 durante la pandemia reveló que una gran mayoría de ellos eran problemáticos debido a tamaños de muestra insuficientes, ausencia de validación externa y evaluación de desempeño inapropiada. Los modelos de IA también tienden a tener un rendimiento muy diferente entre los subgrupos de población, favoreciendo típicamente al mayoritario, para el cual han visto la mayor cantidad de datos. Eso puede resultar en peores resultados para los grupos subrepresentados. Pero incluso el llamado modelo perfecto debe probarse en el entorno previsto, especialmente cuando se supone que la herramienta debe actuar en conjunto con un usuario humano.

En segundo lugar, hay poca comprensión de cómo interactúa la IA con los humanos en un contexto sanitario. Por ejemplo, en un estudio reciente, que presenta los resultados de una prueba silenciosa de un algoritmo para predecir la hidronefrosis obstructiva en niños basándose en sus ultrasonidos renales, los usuarios expuestos a la herramienta cambiaron su comportamiento de toma de decisiones clínicas en función de sus expectativas sobre los resultados del modelo. Esto es especialmente relevante con la llegada de grandes modelos de lenguaje cada vez más poderosos, como ChatGPT y modelos básicos, cuyo comportamiento es comparativamente menos predecible o interpretable, en general.

En tercer lugar, la evaluación de las herramientas y dispositivos de IA no debe basarse únicamente en mediciones operativas, como por ejemplo si la herramienta aumenta la productividad de los médicos o del sistema de salud en general. Si bien estos son resultados importantes en la búsqueda general de un sistema de salud más sostenible, la evaluación de cualquier modelo debe tener en cuenta también los beneficios reales y los daños potenciales para el individuo o la población del otro lado del usuario.

Por último, existe el riesgo de que la IA aumente aún más o cree nuevas disparidades en salud. El despliegue de las herramientas más avanzadas depende de un sistema de infraestructura digital que simplemente no está presente en la mayoría de los países. A medida que se diseñen y realicen nuevos estudios, será importante considerar la viabilidad de implementar una intervención de IA donde sea más necesaria, incluidos entornos con recursos limitados. Por ejemplo, el uso generalizado de teléfonos inteligentes en países de bajos ingresos hace que las intervenciones digitales basadas en aplicaciones sean una forma relativamente fácil de brindar asistencia y apoyo de salud distribuidos incluso en áreas remotas. Los estudios ya han demostrado el potencial de estas aplicaciones para el apoyo remoto al aborto autoadministrado y la administración de antibióticos.

Muchos de estos puntos se reflejan ahora en la declaración Responsible AI for Social and Ethical Healthcare (RAISE), un esfuerzo basado en el consenso, organizado por el Departamento de Informática Biomédica de la Facultad de Medicina de Harvard, que involucra a muchas partes interesadas clave en la transición hacia la IA. cuidado de la salud. También queremos que estos principios se reflejen con más frecuencia en el diseño de los estudios que publicamos.

En ese sentido, alentamos la presentación de nuevas investigaciones que proporcionen evidencia sólida para respaldar la implementación de la IA en la atención médica, particularmente en entornos con recursos limitados, ya sea a través de ensayos clínicos, estudios observacionales prospectivos o implementación en el mundo real e investigación rentable. Invitamos a nuestros autores a continuar asociándonos con nosotros para defender la investigación que aborde estas brechas y presentar la IA como una herramienta de democratización de la atención médica.