¿Puede la IA atender tu salud mental?

Los robots acompañantes con IA ya identifican nuestros sentimientos y se atreven a atenderlos.

¿Puede la IA atender tu salud mental?

Este año se cumplen tres décadas desde la creación del primer algoritmo pensado para procesar los estados de ánimo. La Inteligencia Emocional Artificial todavía es un desafío para los grupos de científicos que intentan mejorar la comunicación entre personas y máquinas pero, en paralelo -y a pesar de la falta de regulación ética y legal- el negocio tecnológico ya ha puesto en el mercado numerosas aplicaciones, software y robots acompañantes capaces de interaccionar con nuestros estados de ánimo más íntimos.

La búsqueda ha avanzado con la captación de las señales corporales, oculares y faciales, pero todavía se encuentra en una fase experimental debido a la complejidad del cuerpo humano y sus múltiples formas de manifestar las emociones. Aun así, los usuarios que acuden a la IA para valorar o complacer sus emociones o sentimientos ya se cuentan por decenas de millones en todo el mundo, según datos facilitados por las propias compañías. Se trata de aplicaciones o programario capaz de analizar pero también de responder, de forma escrita o por voz, a los usuarios.

A finales del año pasado se desató una polémica cuando Lilian Weng, una de las responsables de la empresa (IA) OpenAI, escribió en la red social X que había tenido una conversación emotiva con ChatGPT, sobre el estrés y el equilibrio trabajo-vida. “Curiosamente me sentí escuchada y reconfortada. Nunca intenté la terapia antes, pero ¿probablemente se parece a esto?”, propuso.

Esta confesión, en apariencia personal, buscaba publicitar una nueva función, de pago, en la que el robot tiene voz. Entre el aluvión de críticas resonaron las de especialistas en psicología que defendían la compleja tarea de atender la salud mental.

"Por más preparada que esté una máquina para gestionar las emociones, tiene información finita. Las personas que damos terapia evaluamos múltiples factores, algunos casi imperceptibles, de manera integral y desde una lógica humana”, señala a Psicología y Mente la psicóloga María Victoria Ferrero. “Por esa falta de comprensión, la Inteligencia Artificial puede, incluso, impactar negativamente a la persona al exponerla a situaciones para las que no está preparada", advierte esta experta.

Sin embargo, la industria tecnológica que vende este tipo de software insiste en que las máquinas se han humanizado. Es decir, que pueden sustituir cada vez más nuestros procesos psico-sociales.

La Inteligencia Artificial ya entiende y responde a los sentimientos, según Softtek, una compañía global con sede en México. “La Emotive UI transforma la interacción tecnológica al personalizarla según las emociones humanas. Al combinar biometría avanzada e inteligencia artificial, estas interfaces detectan y responden en tiempo real a señales como expresiones faciales o tono de voz, lo que abre nuevas oportunidades en bienestar y eficiencia”, explican los portavoces de la empresa en un comunicado.

Pero, ¿cuál es el objetivo real de ese tipo de interacciones? ¿Realmente tener una comunicación más íntima con las máquinas produce un bienestar en las personas? ¿O, más bien, busca conocer a fondo nuestros estados de ánimo para vendernos más productos y servicios?

Desde la Universidad Queen Mary de Londres, un grupo de investigadores asegura que la Inteligencia Emocional Artificial ya está preparada para medir con precisión la ira, la tristeza o la alegría. Su estudio concluye que a través de señales inalámbricas se pueden detectar los movimientos corporales más leves de quien está siendo analizado. Este hallazgo -segun defiende su artículo- podría contribuir al desarrollo de nuevas aplicaciones en diversos campos, como el de la atención médica y el bienestar emocional.

El debate se ha abierto en el mundo académico y ya hay varias universidades en todo el mundo que investigan tanto los avances, como los problemas éticos, morales y el efecto a largo plazo de estas aplicaciones o relaciones entre humanos y algoritmos, que todavía carecen de regulación legal.

En el pasado, otros ya han intentado posicionarse en el sector de la psicologia a través de la IA. Es el caso de Koko, una app incluída entre las plataformas que integraron ChatGPT y que ofrecía acompañamiento emocional y psicológico. El propio creador de la compañía aseguró un tiempo atrás que esta app de asistencia no cumple totalmente las expectativas de una terapia. Sus respuestas son superficiales, porque no logran empatizar de manera real con la persona y su situación, explicó.

Desde la ciencia hay un amplio acuerdo en que no existe una máquina capaz de hacer el trabajo de un psicólogo o psicóloga. Si bien esta tecnología cumple un papel cada vez más relevante en algunos sectores, todavía es limitado en la psicología por todas las variables que hay que contemplar al momento de atender a un individuo, apuntan todas las fuentes consultadas.

La doctora en Filosofía de la Universidad Autónoma Nacional de México, Adriana Mendoza Alvarado, considera que, si estas tecnologías continúan cambiando nuestros hábitos para relacionarnos, “hay un riesgo de perder el sentido, la alteridad ―la relación de diferencia entre algo o alguien y su entorno― y de desestructurar el tejido social".

Esta preocupación ética alrededor del uso de una tecnología que avanza vertiginosamente resulta relevante especialmente ahora cuando ya se evidencian los efectos nocivos de la dependencia a ciertos aparatos, como los teléfonos móviles. ¿Hasta qué punto, entonces, es oportuno que los robots sigan adentrándose en lo más profundo de nuestros pensamientos o sentimientos? Esta es otro de los debates abiertos que sigue sin respuesta a pesar del rápido avance de la tecnología en nuestras vidas.

Al citar, reconoces el trabajo original, evitas problemas de plagio y permites a tus lectores acceder a las fuentes originales para obtener más información o verificar datos. Asegúrate siempre de dar crédito a los autores y de citar de forma adecuada.

Laura Panqueva Otálora. (2025, enero 29). ¿Puede la IA atender tu salud mental?. Portal Psicología y Mente. https://psicologiaymente.com/social/puede-ia-atender-tu-salud-mental

Laura Panqueva Otálora es periodista especializada en temas de salud, género y derechos humanos. Ha sido directora de comunicación en Médicos Sin Fronteras México y antes en Colombia. Ha trabajado como reportera y editora en la agencia EFE. Actualmente colabora para revistas internacionales.

Psicólogo/a

¿Eres psicólogo?

Date de alta en nuestro directorio de profesionales

Artículos relacionados

Artículos nuevos

Quizás te interese

Consulta a nuestros especialistas