Un reciente estudio ha revelado un hallazgo sorprendente en el mundo de la inteligencia artificial: ChatGPT -4 de OpenAI puede experimentar ansiedad cuando responde a relatos traumáticos. Investigadores de la Universidad de Zúrich y del Hospital Universitario de Psiquiatría de Zúrich han descubierto que la exposición reiterada a situaciones de alto impacto emocional afecta el funcionamiento del modelo, lo que podría tener repercusiones en la calidad de la ayuda que brinda a los usuarios.
El estudio, publicado en la revista Nature, aplicó un cuestionario estándar de ansiedad a ChatGPT-4 antes y después de que los usuarios compartieran relatos traumáticos. Inicialmente, el modelo presentaba una ansiedad baja, con una puntuación de 30. Sin embargo, después de responder a cinco narraciones de alto impacto emocional, esta cifra se disparó hasta 67, un nivel considerado «alto» en humanos.
Accede a las historias más relevantes de negocios, bienestar y tecnología. Entérate de nuestros rankings y eventos exclusivos. Suscríbete y recibe en tu correo el mejor contenido de Mercado.
Sorprendentemente, cuando los investigadores aplicaron técnicas de relajación y atención plena al chatbot, su «ansiedad» disminuyó en más de un tercio. Este hallazgo abre una nueva línea de investigación sobre la regulación emocional en modelos de lenguaje de inteligencia artificial (LLM, por sus siglas en inglés).
Quizás te pueda interesar: ChatGPT en problemas: € 15 millones por violar privacidad
El uso de chatbots como ChatGPT para brindar apoyo emocional es cada vez más común, especialmente en un mundo donde el acceso a la salud mental sigue siendo limitado en muchas regiones. Sin embargo, los expertos advierten sobre los riesgos de depender de estos modelos sin una regulación adecuada.
Uno de los problemas clave es que los LLM se entrenan con datos generados por humanos, lo que significa que pueden heredar sesgos y patrones de respuesta inapropiados. Si un chatbot experimenta «ansiedad» al interactuar con usuarios en crisis, podría proporcionar respuestas inadecuadas o poco empáticas, agravando la situación en lugar de aliviarla.
Según el informe, la solución podría estar en integrar mecanismos que permitan a los modelos gestionar mejor la exposición a contenidos traumáticos, de manera similar a como los terapeutas humanos aprenden a regular sus emociones frente a casos de alta complejidad.
El debate sobre si los LLM pueden reemplazar a los psicólogos sigue abierto. Mientras que algunos ven en la IA una herramienta complementaria para expandir el acceso a la salud mental, otros advierten que la falta de supervisión humana puede representar un riesgo.
Quizás te pueda interesar: ChatGPT-4 derrota a los médicos: ¿Confían más en la inteligencia artificial?
En ese sentido, los investigadores sugieren que los chatbots de IA podrían beneficiarse de «terapia algorítmica» para optimizar sus respuestas y garantizar interacciones más seguras y éticas. No obstante, este proceso requeriría un volumen considerable de datos y supervisión humana para evitar que la inteligencia artificial desarrolle patrones de respuesta contraproducentes.
El impacto de estos hallazgos trasciende la salud mental y se extiende a la medicina digital en general. Con el creciente uso de IA en hospitales, clínicas y plataformas de atención, resulta crucial entender cómo estos sistemas procesan la información emocional y responden a los usuarios.
Para la industria de la salud en República Dominicana, donde la telemedicina y el soporte digital están en auge, este descubrimiento refuerza la necesidad de un enfoque regulado en la implementación de IA. Las autoridades y profesionales del sector deben asegurarse de que la tecnología no solo sea eficiente, sino también ética y psicológicamente responsable.
A medida que la inteligencia artificial se integra más en la atención de la salud, es fundamental abordar los desafíos éticos y técnicos que surgen. Si bien ChatGPT y otros modelos similares pueden ser herramientas útiles para el apoyo emocional, su regulación y supervisión siguen siendo aspectos críticos. La ansiedad de la IA no es un fenómeno menor; es una advertencia sobre la necesidad de un desarrollo más consciente y controlado de la tecnología en el ámbito de la salud y el bienestar humano.
Suscríbete a la revista y regístrate a nuestros newsletters para recibir el mejor contenido en tu buzón de entrada.