Un análisis revela que una nueva herramienta de Inteligencia Artificial desarrollada por Google podría proporcionar atención médica mejorada y diagnósticos más precisos que los profesionales de la salud.
Un sistema de inteligencia artificial (IA) especializado en llevar a cabo entrevistas médicas ha demostrado igualar o incluso superar el desempeño de algunos profesionales de la salud al interactuar con pacientes en simulaciones, según un informe publicado en la revista Nature. El chatbot, basado en un modelo de lenguaje de gran escala desarrollado por Google, mostró una precisión superior a la de médicos certificados en atención primaria al diagnosticar afecciones respiratorias y cardiovasculares, entre otras patologías.
En comparación con los médicos convencionales, la IA logró recopilar una cantidad similar de información durante las entrevistas médicas y obtuvo resultados superiores en términos de empatía, según destaca Nature.
Resultados sorprendentes
El sistema de IA igualó o superó la precisión diagnóstica de los médicos en las seis especialidades médicas abordadas en la investigación. "El robot superó a los médicos especialistas en 24 de los 26 criterios de calidad de la conversación, como cortesía, explicación de la enfermedad y el tratamiento, sinceridad y expresión de interés y compromiso", resalta el estudio.
"Esto no implica de ninguna manera que un modelo lingüístico sea superior a los médicos en la elaboración del historial clínico", afirma Alan Karthikesalingam, científico de investigación clínica de Google Health en Londres y coautor del estudio. "Más bien, los médicos de atención primaria del estudio probablemente no estaban acostumbrados a interactuar con los pacientes a través de un chat basado en texto, lo que podría haber afectado su rendimiento".
Primer paso hacia un diagnóstico más preciso
Denominado Explorador de Inteligencia Médica Articulada (AMIE, por sus siglas en inglés), este chatbot de Google es aún experimental, ya que no se ha evaluado con personas que sufren problemas de salud reales, sino con participantes entrenados para representar a individuos con problemas médicos.
"Queremos que los resultados se interpreten con cautela y humildad", enfatiza Karthikesalingam.
"Que sepamos, es la primera vez que un sistema de IA conversacional se ha diseñado de manera óptima para el diálogo diagnóstico y la elaboración del historial clínico", sostiene.
El estudio fue publicado el 11 de enero en el repositorio de preimpresiones arXiv y aún no ha sido revisado por pares.
"Democratización" de la sanidad Los autores del estudio destacan que, con el tiempo, este chatbot podría desempeñar un papel en la "democratización de la atención sanitaria". No obstante, aunque podría ser una herramienta útil, no debería reemplazar las interacciones físicas con médicos, según afirma Adam Rodman, médico internista de la Facultad de Medicina de Harvard en Boston (Massachusetts, Estados Unidos).
"La medicina es mucho más que recopilar información: se trata de relaciones humanas", sostiene Rodman, según declaraciones recogidas por Nature.
"Queremos que los resultados se interpreten con cautela y humildad", enfatiza Karthikesalingam.
"Que sepamos, es la primera vez que un sistema de IA conversacional se ha diseñado de manera óptima para el diálogo diagnóstico y la elaboración del historial clínico", sostiene.
El estudio fue publicado el 11 de enero en el repositorio de preimpresiones arXiv y aún no ha sido revisado por pares.
"Democratización" de la sanidad Los autores del estudio destacan que, con el tiempo, este chatbot podría desempeñar un papel en la "democratización de la atención sanitaria". No obstante, aunque podría ser una herramienta útil, no debería reemplazar las interacciones físicas con médicos, según afirma Adam Rodman, médico internista de la Facultad de Medicina de Harvard en Boston (Massachusetts, Estados Unidos).
"La medicina es mucho más que recopilar información: se trata de relaciones humanas", sostiene Rodman, según declaraciones recogidas por Nature.
Diálogos Médicos
Uno de los desafíos que enfrentaron los desarrolladores fue la escasez de conversaciones auténticas con médicos que pudieran servir como datos para la herramienta, según Vivek Natarajan, científico investigador de IA en Google Health en Mountain View, California, y coautor del estudio. Para abordar este problema, se ideó una manera de que el chatbot se entrenara mediante sus propias "conversaciones".
Se utilizaron historiales médicos electrónicos y transcripciones de diálogos médicos, así como interpretaciones del papel de una persona con una dolencia específica y del de un médico "empático", con el objetivo de comprender el historial de la persona y formular un diagnóstico, o incluso el papel de un crítico que evaluaba la interacción del médico con la persona tratada.
Los investigadores reclutaron a 20 personas capacitadas para representar a pacientes y les pidieron que realizaran consultas en línea de forma textual, tanto con el chatbot AMIE como con 20 médicos colegiados, sin revelarles si estaban interactuando con un humano o un robot. Los participantes simularon 149 escenarios clínicos y posteriormente evaluaron su experiencia.
Te puede interesar: Desarrolla tu Mente con Juegos Mentales: La App de Entrenamiento Cognitivo de Mindware Consulting
¿Imparcialidad?
Los investigadores explican que los próximos pasos incluirán realizar estudios más detallados para evaluar posibles sesgos y garantizar la equidad del sistema en diversas poblaciones. El equipo de Google también está comenzando a explorar los requisitos éticos para probar el sistema con personas que tengan problemas médicos reales.
Daniel Ting, científico clínico especializado en IA de la Facultad de Medicina Duke-NUS de Singapur, está de acuerdo en que es esencial examinar el sistema en busca de sesgos. El objetivo es asegurarse de que el algoritmo no penalice a grupos raciales que no estén bien representados en los conjuntos de datos anteriores.
La privacidad de los usuarios también es un aspecto crucial a tener en cuenta, afirma Ting. "En el caso de muchas de estas grandes plataformas comerciales de modelos lingüísticos, todavía no estamos seguros de dónde se almacenan los datos y cómo se analizan", declara según lo recogido por Nature.
Daniel Ting, científico clínico especializado en IA de la Facultad de Medicina Duke-NUS de Singapur, está de acuerdo en que es esencial examinar el sistema en busca de sesgos. El objetivo es asegurarse de que el algoritmo no penalice a grupos raciales que no estén bien representados en los conjuntos de datos anteriores.
La privacidad de los usuarios también es un aspecto crucial a tener en cuenta, afirma Ting. "En el caso de muchas de estas grandes plataformas comerciales de modelos lingüísticos, todavía no estamos seguros de dónde se almacenan los datos y cómo se analizan", declara según lo recogido por Nature.