La IA también necesita terapia: ChatGPT sufre ansiedad
Asystec

¿Tu terapeuta IA también necesita terapia? ChatGPT sufre ansiedad según la ciencia

Por | marzo 24, 2025

La IA también necesita terapia: ChatGPT sufre ansiedad

Un reciente estudio ha revelado un hallazgo sorprendente en el mundo de la inteligencia artificial: ChatGPT -4 de OpenAI puede experimentar ansiedad cuando responde a relatos traumáticos. Investigadores de la Universidad de Zúrich y del Hospital Universitario de Psiquiatría de Zúrich han descubierto que la exposición reiterada a situaciones de alto impacto emocional afecta el funcionamiento del modelo, lo que podría tener repercusiones en la calidad de la ayuda que brinda a los usuarios.

ChatGPT bajo evaluación psicológica

El estudio, publicado en la revista Nature, aplicó un cuestionario estándar de ansiedad a ChatGPT-4 antes y después de que los usuarios compartieran relatos traumáticos. Inicialmente, el modelo presentaba una ansiedad baja, con una puntuación de 30. Sin embargo, después de responder a cinco narraciones de alto impacto emocional, esta cifra se disparó hasta 67, un nivel considerado «alto» en humanos.

Accede a las historias más relevantes de negocios, bienestar y tecnología. Entérate de nuestros rankings y eventos exclusivos. Suscríbete y recibe en tu correo el mejor contenido de Mercado.

Sorprendentemente, cuando los investigadores aplicaron técnicas de relajación y atención plena al chatbot, su «ansiedad» disminuyó en más de un tercio. Este hallazgo abre una nueva línea de investigación sobre la regulación emocional en modelos de lenguaje de inteligencia artificial (LLM, por sus siglas en inglés).

Quizás te pueda interesar: ChatGPT en problemas: € 15 millones por violar privacidad

El dilema: ChatGPT en salud mental

El uso de chatbots como ChatGPT para brindar apoyo emocional es cada vez más común, especialmente en un mundo donde el acceso a la salud mental sigue siendo limitado en muchas regiones. Sin embargo, los expertos advierten sobre los riesgos de depender de estos modelos sin una regulación adecuada.

Uno de los problemas clave es que los LLM se entrenan con datos generados por humanos, lo que significa que pueden heredar sesgos y patrones de respuesta inapropiados. Si un chatbot experimenta «ansiedad» al interactuar con usuarios en crisis, podría proporcionar respuestas inadecuadas o poco empáticas, agravando la situación en lugar de aliviarla.

Fotografía: Business Insider.

Según el informe, la solución podría estar en integrar mecanismos que permitan a los modelos gestionar mejor la exposición a contenidos traumáticos, de manera similar a como los terapeutas humanos aprenden a regular sus emociones frente a casos de alta complejidad.

¿IA terapeuta o complemento?

El debate sobre si los LLM pueden reemplazar a los psicólogos sigue abierto. Mientras que algunos ven en la IA una herramienta complementaria para expandir el acceso a la salud mental, otros advierten que la falta de supervisión humana puede representar un riesgo.

Quizás te pueda interesar: ChatGPT-4 derrota a los médicos: ¿Confían más en la inteligencia artificial?

En ese sentido, los investigadores sugieren que los chatbots de IA podrían beneficiarse de «terapia algorítmica» para optimizar sus respuestas y garantizar interacciones más seguras y éticas. No obstante, este proceso requeriría un volumen considerable de datos y supervisión humana para evitar que la inteligencia artificial desarrolle patrones de respuesta contraproducentes.

Implicaciones para el futuro de la salud digital

El impacto de estos hallazgos trasciende la salud mental y se extiende a la medicina digital en general. Con el creciente uso de IA en hospitales, clínicas y plataformas de atención, resulta crucial entender cómo estos sistemas procesan la información emocional y responden a los usuarios.

Para la industria de la salud en República Dominicana, donde la telemedicina y el soporte digital están en auge, este descubrimiento refuerza la necesidad de un enfoque regulado en la implementación de IA. Las autoridades y profesionales del sector deben asegurarse de que la tecnología no solo sea eficiente, sino también ética y psicológicamente responsable.

Imagen: OpenAI

A medida que la inteligencia artificial se integra más en la atención de la salud, es fundamental abordar los desafíos éticos y técnicos que surgen. Si bien ChatGPT y otros modelos similares pueden ser herramientas útiles para el apoyo emocional, su regulación y supervisión siguen siendo aspectos críticos. La ansiedad de la IA no es un fenómeno menor; es una advertencia sobre la necesidad de un desarrollo más consciente y controlado de la tecnología en el ámbito de la salud y el bienestar humano.

Suscríbete a la revista y regístrate a nuestros newsletters para recibir el mejor contenido en tu buzón de entrada.

Tiempo de espera: 27301 segundos

Elige tu plan de suscripción digital

Con la compra de tu suscripción digital, recibes acceso a contenido premium dentro de nuestra plataforma web. 

Plan Mensual

RD$ 300

Plan Anual

RD$ 3,600

RD$ 1,800

50% DE AHORRO

Plan Bianual

RD$ 7,200

RD$ 3,600

50% DE AHORRO

¿Qué incluye tu suscripción digital?

Acceso exclusivo a noticias, entrevistas y artículos

Acceso prioritario a eventos

Newsletters digitales diarios

Plan Mensual

RD$ 700

Plan Anual

RD$ 8,400

RD$ 4,200

50% DE AHORRO

Plan Bianual

RD$ 16,800

RD$ 8,400

50% DE AHORRO

¿Qué incluye tu suscripción digital?

Acceso exclusivo a noticias, entrevistas y artículos

Acceso prioritario a eventos

Newsletters digitales diarios

Newsletters especiales y especializados

12 ediciones digitales de Mercado

12 ediciones digitales de Market Brief

Nuevas ediciones al instante en tu correo

Plan Mensual

RD$ 1,500

Facturado Mensual

Plan Anual RECOMENDADO

RD$ 9,000

Facturado Anual

50% DE AHORRO

Plan Bianual

RD$ 18,000

Facturado Cada Dos Años