El ‘chatbot Med-PaLM’, una aplicación de inteligencia artificial de Google especializada en medicina, superó el examen que permite ejercer como médico en Estados Unidos aunque sus resultados todavía son inferiores a los de los humanos, según un estudio publicado el miércoles en Nature.
El lanzamiento de ChatGPT de la compañía OpenAI, que tiene el apoyo de Microsoft, rival de Google, abrió el año pasado una carrera entre los gigantes tecnológicos en el campo de la inteligencia artificial.
La atención médica es un área donde la tecnología ya ha mostrado un progreso tangible, con algunos algoritmos que demuestran ser capaces de leer escáneres médicos mejor que los humanos.
Google había presentado su herramienta de inteligencia artificial dedicada a problemas médicos, llamada Med-PaLM, en un artículo en prepublicación en diciembre.
A diferencia de ChatGPT, el sistema no es accesible al público en general.
Google afirma que Med-PaLM es el primer gran modelo de lenguaje --una técnica de inteligencia artificial entrenada con grandes cantidades de texto producido por humanos-- en aprobar el US Medical Licensing Examination (USMLE).
Este examen permite ejercer la medicina en Estados Unidos y hay que obtener una puntuación de aproximadamente el 60%.
Un estudio reveló en febrero que ChatGPT había obtenido resultados bastante satisfactorios en el examen.
En un nuevo estudio revisado por pares publicado el miércoles en la revista Nature, los investigadores de Google dijeron que Med-PaLM logró el 67,6% de resultados correctos en las preguntas de opción múltiple de USMLE.
Unos resultados “alentadores, pero aún inferiores a los de los humanos”, dice el estudio.
La Inteligencia Artificial predice resultados médicos mejor que mayoría de doctores
Por otro lado, la inteligencia artificial (IA) ha probado ser útil en lectura de imágenes médicas e incluso ha mostrado que pueden aprobar el examen de licencia para doctores.
Ahora, una nueva herramienta de IA ha demostrado la capacidad de leer notas médicas y anticipar con precisión el riesgo de muerte de los pacientes, su readmisión al hospital y otros resultados importantes para su cuidado.
Diseñado por un equipo de la Escuela Grossman de Medicina de la NYU, el programa actualmente se usa en todos los hospitales afiliados a esta universidad en Nueva York, con la esperanza de que se vuelva estándar en la salud.
El estudio sobre su valor predictivo fue publicado este miércoles en la revista Nature.
El autor principal, Eric Oermann, neurocirujano de la NYU y científico computacional, dijo que mientras los modelos predictivos sin IA han estado alrededor de la medicina por varios años, se han usado muy poco en la práctica porque los datos que necesita requieren una incómoda reorganización y adaptación de formato.
Sin embargo, “una cosa que es común en la medicina en todas partes es que los médicos escriben notas sobre lo que ven en clínica, lo que han hablado con pacientes”, dijo.
“Entonces, nuestra revelación básica fue: ¿podemos comenzar con las notas médicas como fuente de datos y después construir modelos predictivos sobre ellas?”.
El enorme modelo de lenguaje llamado NYUTron fue entrenado con millones de notas médicas extraídas de historias clínicas de 387.000 personas que recibieron atención médica en los hospitales NYU Langone entre enero de 2011 y mayo de 2020.
Estos registros incluían los escritos por doctores, notas de evolución de pacientes, informes de radiología e instrucciones para dar de alta cuyo total acumula 4.100 millones de palabras.
Uno de los retos clave para el programa fue interpretar el lenguaje natural con el que los médicos escriben, que varía ampliamente entre individuos, incluso por las abreviaciones que cada uno usa.
Al mirar los registros de lo que obtuvieron, los investigadores fueron capaces de calcular cada cuánto las predicciones del programa fueron acertadas.
Además, probaron la herramienta en ambientes vivos y la entrenaron a partir de registros de un hospital en Manhattan para luego ver cómo se comportaba en uno de Brooklyn, con distintos datos demográficos de pacientes.
*Con información de AFP.