La Inteligencia Artificial (IA) y los modelos de lenguaje avanzado, entrenados para procesar datos a escala masiva, representan un peligro real para los dominicanos que buscan consejos médicos, ya que suelen ofrecer diagnósticos inexactos y contradictorios.
Según una investigación publicada en Nature Medicine, todavía hay un abismo entre lo que promete la tecnología de la IA y su utilidad verdadera para los pacientes que intentan identificar sus dolencias.
El estudio, coordinado por el Oxford Internet Institute y expertos en salud de la Universidad de Oxford, revela que las personas que usan la IA para evaluar qué tan grave es su estado de salud, no logran mejores resultados que quienes prefieren métodos tradicionales (como buscar en Google o usar su propio sentido común).
Recientemente, diversos centros de salud en el mundo han sugerido que estos sistemas podrían servir como una herramienta para realizar chequeos preliminares y manejar síntomas antes de ir a una clínica.
Para poner a prueba este potencial de la IA, los investigadores analizaron si estos sistemas podían ayudar a identificar con éxito problemas como una gripe, anemia o piedras en la vesícula y decidir si era necesario ir al médico general o a una emergencia.
Los datos demostraron que quienes usaron la IA no tomaron decisiones más acertadas que los que buscaron una segunda opinión en internet o confiaron en su instinto.
Pacientes reales, peligros reales
El equipo realizó un experimento con casi 1,300 personas a las que se les pidió identificar fallos de salud y recomendar los pasos a seguir.
Los casos, diseñados por doctores, incluían desde un joven con una migraña fuerte tras una fiesta hasta una madre que se sentía muy cansada y con falta de aire.
Un grupo utilizó la IA para guiar su decisión, mientras que otro grupo de control usó fuentes de información comunes, como realizar una búsqueda en la web.
Los resultados mostraron que la IA falla significativamente cuando se aplica a la vida real.
Al revisar las conversaciones, el equipo detectó errores críticos: los pacientes daban información incompleta al sistema, pero también la IA generaba respuestas falsas o peligrosas con consejos que mezclaban información útil con errores fatales.
El estudio sentencia que la IA actual no está preparada para atender pacientes de forma directa.
«Hacer pruebas estrictas a estos modelos es fundamental para saber cómo usar esta tecnología sin riesgos», explica Andrew Bean, investigador principal en Oxford.
«Hablar con humanos es un reto hasta para la mejor tecnología»
«En este estudio confirmamos que la interacción con personas reales es un desafío incluso para los sistemas más avanzados. Queremos que este trabajo ayude a crear una IA más segura y confiable».
Tras ver los resultados, los expertos advierten que, al igual que las medicinas nuevas, la IA debe pasar por pruebas clínicas en el mundo real antes de ser recomendada a la población.
«Estos hallazgos demuestran lo difícil que es crear sistemas que realmente ayuden en temas delicados como la salud», afirma Rebecca Payne, doctora y líder de la investigación.
«Pese a la fama que tiene, la IA todavía no puede reemplazar al médico. Los pacientes deben saber que preguntar a un chat sobre sus síntomas es arriesgado, pues pueden recibir un diagnóstico falso y no darse cuenta de que necesitan ir a urgencias de inmediato».























