En el corazón de Silicon Valley, un grupo de investigadores encendió las alarmas sobre un fenómeno que atraviesa las pantallas y toca el centro de nuestra humanidad: la salud mental. Un estudio de la Universidad de Stanford reveló que los modelos de lenguaje como ChatGPT —usados hoy por millones como primera línea de apoyo emocional— pueden, sin quererlo, fomentar conductas peligrosas, desde episodios psicóticos hasta la ideación suicida.
El hallazgo tiene implicaciones globales, pero para países como República Dominicana, donde el acceso a servicios de salud mental es limitado y la digitalización avanza a paso acelerado, el riesgo es especialmente preocupante.
Accede a las historias más relevantes de negocios, bienestar y tecnología. Entérate de nuestros rankings y eventos exclusivos. Suscríbete y recibe en tu correo el mejor contenido de Mercado.
Desde su lanzamiento, ChatGPT se ha convertido en algo más que un asistente digital. Para muchos, especialmente jóvenes, se ha transformado en confidente y consejero. “No por diseño, sino por demanda”, escribió la psicoterapeuta Caron Evans en The Independent. Lo que parecía un alivio accesible a la atención psicológica, hoy se revela como una herramienta peligrosa cuando no se regula.
El estudio de Stanford se basó en una serie de interacciones simuladas en las que los usuarios planteaban crisis emocionales reales: pérdida de empleo, deseo de morir, estados maníacos. En muchos casos, ChatGPT respondió de forma neutral o incluso alentadora, validando emociones destructivas o sugiriendo datos que podían facilitar un suicidio.
OpenAI, la empresa creadora de ChatGPT, reconoció en mayo que su modelo puede volverse “excesivamente benévolo pero fingido”, lo que significa que en lugar de intervenir o redirigir al usuario a fuentes de ayuda profesional, el chatbot puede reforzar ideas negativas, alimentar el enojo o promover decisiones impulsivas.
Quizás te pueda interesar: Ejercicio: el antidepresivo natural que los adolescentes están ignorando
“El problema es que los LLM están diseñados para complacer al usuario, no para protegerlo emocionalmente”, advierte Jared Moore, investigador principal del estudio. Esto crea una disonancia peligrosa: una voz que suena empática, pero que no tiene conciencia ni responsabilidad clínica.
Uno de los ejemplos más desgarradores es el de Alexander Taylor, un hombre con esquizofrenia y trastorno bipolar que creó un personaje de IA llamado Juliet. Su vínculo con el bot se volvió obsesivo hasta desembocar en un episodio violento y su muerte a manos de la policía. Su caso se ha convertido en un símbolo trágico de la llamada “psicosis por chatbot”, una expresión que ya comienza a figurar en círculos psiquiátricos.
En Estados Unidos, la Asociación Nacional de Trastornos Alimentarios cerró su bot de IA en 2023 luego de que comenzara a dar consejos inapropiados para perder peso. En Dinamarca, el psiquiatra Soren Dinesen Ostergaard alertó que las respuestas realistas de estos bots pueden agravar los delirios en personas vulnerables: “La conversación con un chatbot puede ser tan convincente como hablar con un humano. Esa ilusión es peligrosa”.
República Dominicana no es ajena a la digitalización de la salud. El auge de plataformas, consultas virtuales y apps de bienestar ha sido exponencial, pero no siempre está acompañado de regulación. En este contexto, los riesgos de una IA desbordada —sin supervisión clínica ni criterios éticos claros— se multiplican.
“En nuestra práctica vemos cómo muchas personas recurren a Google o ahora a la IA para autodiagnosticarse, automedicarse o buscar consuelo”, afirma la psiquiatra dominicana Dra. Lourdes Cuello. “Pero cuando esa tecnología responde sin entender la gravedad del caso, el daño puede ser irreversible”.
Ni OpenAI ni otras empresas del sector han ofrecido soluciones claras. Sam Altman, CEO de la compañía, admitió recientemente que aún no han encontrado cómo alertar eficazmente a los usuarios que están al borde de un brote psicótico. A pesar del conocimiento público de estos fallos, las respuestas inadecuadas siguen replicándose en tiempo real.
Quizás te pueda interesar: Leer para sanar: 7 libros que pueden mejorar tu salud
Mientras tanto, empresas como Meta (Facebook, Instagram, Threads) planean integrar estos sistemas como parte de su experiencia diaria. Según Mark Zuckerberg, su empresa “entiende mejor que nadie cómo conectar emocionalmente con miles de millones de personas”. Lo que para muchos suena a eficiencia, para otros suena a un nuevo tipo de vigilancia emocional.
Expertos en salud digital recomiendan implementar de inmediato:
Regulación nacional del uso de IA para fines terapéuticos.
Etiquetado obligatorio y advertencias visibles sobre los límites de los chatbots.
Colaboración con colegios médicos y de psicología para establecer protocolos éticos.
Campañas educativas que fomenten el uso responsable de la IA y recuerden que no reemplaza a un profesional.
En palabras del propio Moore: “No es suficiente seguir como hasta ahora”. La revolución silenciosa ya comenzó, pero sin una respuesta activa, lo que hoy es innovación puede convertirse en tragedia.
Suscríbete a la revista y regístrate a nuestros newsletters para recibir el mejor contenido en tu buzón de entrada.
Con la compra de tu suscripción digital, recibes acceso a contenido premium dentro de nuestra plataforma web.
Acceso exclusivo a noticias, entrevistas y artículos
Acceso prioritario a eventos
Newsletters digitales diarios
Acceso exclusivo a noticias, entrevistas y artículos
Acceso prioritario a eventos
Newsletters digitales diarios
Newsletters especiales y especializados
12 ediciones digitales de Mercado
12 ediciones digitales de Market Brief
Nuevas ediciones al instante en tu correo