Inteligencia artificial 

Más allá de los datos: la falta de criterio humano de IA en la salud

La IA, por sofisticada que sea, carece de la capacidad de entender las emociones humanas de manera profunda y auténtica. Las interacciones con un terapeuta no solo se basan en información teórica, sino también en conexiones emocionales y empatía, algo que la IA no puede ofrecer

La inteligencia artificial (IA) está revolucionando múltiples sectores, incluyendo la salud mental y la medicina. Una herramienta invaluable de ayuda para el profesional. 

Sin embargo, a pesar de sus promesas y avances, existen riesgos importantes cuando nos planteamos sustitución de los profesionales correspondientes. Muchos, en ocasiones, consultamos IA o al Dr. Google buscando diagnósticos. 

En lo personal, en alguna circunstancia incurrí en el error de buscar esta asistencia, afortunadamente el resultado provisto fue tan malo que acudí a mi doctor de cabecera quien me desmontó el terror con que llegué. 

Pudo ser inverso, obtener un diagnóstico amable y resultar ser algo que ameritara urgencia. Me pregunto cuántos podrían perder un tiempo precioso requerido para sanar o evitar inconvenientes mayores.

Los algoritmos de IA son imparciales como los datos con los que se alimentan. Inclusive, realizar una pregunta de forma inadecuada a una IA, que el consultante no sepa los pormenores que debe incluir en la pregunta, puede resultar en un diagnóstico errado o indicaciones inadecuadas que, lejos de ayudar, podrían ser perjudiciales. 

El ojo clínico de un profesional es insustituible, el profesional si pudiera valerse de la IA emocional pues, por su formación, tiene el criterio de poder discernir la respuesta resultante.

Un profesional humano incluye innumerables elementos que jamás la IA puede advertir, como por ejemplo la atención a algunos pormenores significativos. En el ámbito de la salud mental, el vínculo entre terapeuta y paciente es esencial.

La IA, por sofisticada que sea, carece de la capacidad de entender las emociones humanas de manera profunda y auténtica. Las interacciones con un terapeuta no solo se basan en información teórica, sino también en conexiones emocionales y empatía, algo que la IA no puede ofrecer.

En situaciones críticas, las decisiones médicas requieren una comprensión matizada de las circunstancias del paciente. La IA puede procesar información rápidamente y sugerir tratamientos, pero carece de la capacidad para comprender contextos complejos y únicos de cada individuo que pueden incluir raza (hay enfermedades propias de minorías, o sectores), situaciones que se relacionan con el ambiente y las circunstancias individuales. Informaciones que sí pondera un profesional del sector correspondiente.

Además, existen otras limitaciones de la IA que pudieran incluir el manejo del lenguaje y errores de interpretación. Algunas expresiones o frases tienen significados distintos, dependiendo de la ciudad. Factores como entender el tono, las inflexiones, el lenguaje no verbal e interpretación de silencios puede ser crucial para un diagnóstico preciso.

En resumen, la introducción de la IA en la salud podría ofrecer oportunidades provechosas, tal como otras herramientas que resultan de ayuda en las terapias de la conducta, la psicoeducación a través de libros de autoayuda, películas educativas y los reportes de software de computadoras, pero difícilmente puedan reemplazar el ojo humano de un profesional entrenado para observar las distintas particularidades de sus consultantes.

Avatar Ana Mirtha Vargas

Ana Mirtha Vargas