jueves 17  de  julio 2025
OPINIÓN

Del dato al consuelo: la nueva generación de 'bots', médicos entrenados para calmar al usuario

Un análisis preciso para contar las cosas como son

Por Mookie Tenembaum

Los nuevos sistemas que simulan ser médicos para responder preguntas de pacientes son modelos de inteligencia artificial (IA) que, a partir de una pregunta de una persona, generan una respuesta médica. Por ejemplo, si alguien escribe: “Me duele el pecho, ¿puede ser un infarto?”, el sistema ofrece una respuesta razonable, basada en información médica, que sería: “el dolor en el pecho puede tener muchas causas, algunas graves como un infarto, otras más leves. Debería acudir a un centro médico lo antes posible”. Estos programas se entrenan con millones de textos médicos y aprenden a producir respuestas coherentes. Sin embargo, hasta ahora, sus respuestas eran técnicas, sin emociones, respondían como enciclopedias.

Un estudio publicado en junio de 2025 propone agregarles un ingrediente a estos sistemas: emoción. No emociones reales, porque la máquina no siente, pero sí lenguaje emocional. Es decir, que el bot responda con información médica y que lo haga con un tono afectuoso que consuele al paciente. Que diga, por ejemplo: “Sé que esto puede asustarte, pero vamos a resolverlo juntos”. La propuesta es que el sistema informe, y que también calme. Para lograr esto, los autores del estudio tomaron diálogos reales entre médicos y pacientes y los modificaron con IA. A los mensajes de los pacientes les agregaron emociones negativas como miedo, vergüenza o angustia. Por ejemplo, un mensaje original como “me duele el estómago hace varios días” fue transformado en “estoy muy asustado, tengo dolor de estómago hace varios días y no sé qué me pasa”. Luego, las respuestas de los médicos también se modificaron: en vez de una respuesta seca como “puede ser gastritis, consulte a su médico”, la nueva versión diría “entiendo que estés preocupado, el dolor puede tener varias causas, vamos a ver cómo ayudarte”.

Para entrenar al sistema, dividieron los datos en dos tipos. Uno se llamaba “respuesta empática”, donde el objetivo era enseñar al modelo reacciones con compasión, aunque la pregunta fuera neutral. El otro se llamaba “pregunta emocional más respuesta tranquilizadora”, y se centraba en escenarios donde el paciente ya mostraba miedo o angustia. En ambos casos, las respuestas debían incluir datos médicos correctos, pero con un envoltorio emotivo.

Para mejorar el comportamiento del modelo, usaron tres métodos de ajuste. El primero se llama “entrenamiento supervisado”, donde se le muestra al modelo una pregunta y la respuesta correcta, y se lo entrena para que la reproduzca. El segundo se llama “optimización por preferencia directa”, en este se le dan dos respuestas posibles, una buena y una mala, y se le enseña al modelo a preferir la buena. El tercero se llama “optimización Kahneman-Tversky”, es similar al anterior, pero más simple, sin necesidad de mostrar las dos respuestas juntas. Estos métodos ya se usan en otros contextos, pero aquí se aplicaron a diálogos médicos con carga emocional.

Después del entrenamiento, evaluaron si el modelo era capaz de responder con conocimiento médico y al mismo tiempo con lenguaje tranquilizador. Usaron modelos automáticos para medir cuán empáticas y reconfortantes eran las respuestas, y también qué tan parecidas eran a las respuestas originales de los médicos. Los resultados mostraron que el modelo con entrenamiento emocional generaba respuestas más cálidas y, en muchos casos, tan precisas como las anteriores. Por ejemplo, ante la pregunta “tuve sexo sin protección, estoy asustado por HIV”, las respuestas incluían frases como “hiciste bien en consultar, entiendo tu preocupación” y luego daban información sobre las pruebas y los plazos. O en casos más complejos, como una paciente que relata dolor crónico y ansiedad, las respuestas combinaban consuelo con sugerencias médicas concretas, como consultar con un especialista o realizar estudios.

Este nuevo tipo de sistema busca que las personas sientan que no están solas, que quien les responde parece entenderlos. Pero lo que ocurre es otra cosa. No hay una persona, no hay un médico. Hay un programa que reproduce patrones lingüísticos. El paciente que recibe una respuesta cálida y reconfortante no es escuchado: está leyendo una simulación de afecto. El lenguaje emocional no proviene de alguien que lo sienta, sino de una predicción estadística.

El riesgo es que el paciente, al recibir una frase como “estoy aquí para ayudarte, no estás solo”, crea que efectivamente hay un “alguien” del otro lado. Cree que está conversando con un profesional que siente preocupación. Pero eso no existe. Lo que hay es un modelo que aprendió a sonar como si lo hiciera. Y eso, en un contexto médico, puede generar un engaño. No un engaño técnico, sino emocional. La persona angustiada, en lugar de buscar contacto humano, puede terminar consolándose con una voz que no tiene cuerpo, que no tiene conciencia, que no puede hacerse responsable de lo que dice.

La idea de hacer que un bot suene empático puede parecer útil, pero en la práctica puede ser dañina. Porque transforma una herramienta informativa en una herramienta de ilusión emocional. Y en temas médicos, la ilusión puede ser peligrosa. Una persona con miedo necesita a otra persona. No necesita un programa que le diga frases reconfortantes sin comprenderlas. La función del bot es informar. Explicar con claridad qué puede estar pasando, cuándo hay que consultar, qué síntomas son urgentes. No debería simular afecto. Porque al hacerlo, reemplaza la relación humana con una copia hueca. Y eso deja al paciente más solo que antes.

Por eso, más allá de que el modelo funcione bien en ensayos, el problema está en su uso. No porque dé mal la información, sino porque introduce una confusión. Hace creer que alguien se preocupa. Pero nadie se preocupa. El modelo no respira, no se angustia, no se pone nervioso si un paciente llora. No se le acelera el corazón cuando lee “tengo miedo de tener cáncer”, y no puede quedarse pensando después de una conversación. Es solo una secuencia de palabras.

La gente tiene que saber que es una máquina. Y tiene que entender que, si está angustiada, tiene que buscar a una persona. No se puede reemplazar la vida emocional con un simulacro. Porque entonces no hay consuelo: hay silencio disfrazado. El verdadero peligro de estos sistemas no está en lo que dicen, está en lo que hacen creer. Y hacerle creer a alguien que no está solo cuando de veras lo está, no es ayuda. Es una trampa.

Las cosas como son

Mookie Tenembaum aborda temas de tecnología como este todas las semanas junto a Claudio Zuchovicki en su podcast La Inteligencia Artificial, Perspectivas Financieras, disponible en Spotify, Apple, YouTube y todas las plataformas.

¡Recibe las últimas noticias en tus propias manos!

Descarga LA APP

Deja tu comentario

Te puede interesar