La inteligencia artificial (IA) ha alcanzado un punto donde puede permitir a los usuarios mantener conversaciones de texto y voz con seres queridos fallecidos. Esta es la tarea de los ‘Deadbots’, un potencial riesgo psicológico para los sobrevivientes.
Sin embargo, investigadores de la Universidad de Cambridge advierten que esta tecnología, sin estándares de seguridad bien definidos, puede causar daño psicológico e incluso «perseguir» digitalmente a los sobrevivientes.
Accede a las historias más relevantes de negocios, bienestar y tecnología. Entérate de nuestros rankings y eventos exclusivos. Suscríbete y recibe en tu correo el mejor contenido de Mercado.
En un estudio publicado en la revista Philosophy and Technology, se destaca el riesgo de que empresas utilicen estos «robots muertos» para promocionar productos, simulando ser un ser querido fallecido. Este tipo de tecnología podría causar angustia, especialmente en niños, al insistir que un padre fallecido sigue «presente».
Los ‘Deadbots’ o ‘Griefbots’ son chatbots que imitan el lenguaje y la personalidad de los muertos mediante datos digitales recopilados. Empresas ya están ofreciendo estos servicios, creando una nueva forma de «presencia post mortem».
Los especialistas en ética del Centro Leverhulme para el Futuro de la Inteligencia en Cambridge presentan tres escenarios de diseño para estas plataformas, subrayando las posibles consecuencias de un diseño negligente en una área de la IA considerada de «alto riesgo».
Quizás te pueda interesar: La travesía del duelo: Cómo encontrar sentido en la pérdida.
Cuando una persona viva se inscribe para ser recreada virtualmente tras su muerte, las empresas podrían utilizar los chatbots resultantes para enviar spam a los amigos y familiares sobrevivientes, lo que se asemejaría a un «acoso digital» por parte de los muertos.
Incluso aquellos que encuentran consuelo en un ‘robot muerto’ podrían sentirse abrumados emocionalmente por interacciones constantes y podrían ser incapaces de detener la simulación de IA si el fallecido había firmado un contrato prolongado con el servicio de vida futura digital.
«Los rápidos avances en la IA generativa permiten que casi cualquier persona con acceso a Internet y algunos conocimientos básicos pueda revivir a un ser querido fallecido», afirma la doctora Katarzyna Nowaczyk-Basinska, coautora del estudio e investigadora en el Centro Leverhulme para el Futuro de la Inteligencia en Cambridge.
Este campo de la IA es un «campo de ética minada», advierte Nowaczyk-Basinska. Es crucial priorizar la dignidad de los difuntos y evitar que estos servicios sean explotados con fines financieros. Asimismo, algunas personas podrían dejar una simulación de IA como un «regalo de despedida». Esto sin considerar que sus seres queridos no estén preparados para manejar su dolor de esta manera. Es necesario proteger tanto los derechos de los donantes de datos como de quienes interactúan con estos servicios de IA post mortem.
Quizás te pueda interesar: Sobrellevar el duelo en el entorno laboral.
Plataformas como ‘Project December’ y ‘HereAfter’ ya están ofreciendo recrear a los muertos mediante IA, y servicios similares están surgiendo en China. Aunque los investigadores sugieren que los diseñadores de estos servicios deben obtener el consentimiento de los donantes de datos, creen que una prohibición basada en la falta de consentimiento sería inviable.
Los investigadores recomiendan incluir preguntas de reflexión para quienes buscan «resucitar» a sus seres queridos. Como «¿alguna vez has hablado con X sobre cómo te gustaría ser recordado?», para asegurar que la dignidad de los difuntos sea respetada. También proponen restricciones de edad para el uso de ‘deadbots’ y piden una «transparencia significativa». De este modo, podrían asegurar que los usuarios sepan que están interactuando con una IA. Un esquema similar a las advertencias actuales sobre contenido potencialmente perjudicial.
Suscríbete a la revista y regístrate a nuestros newsletters para recibir el mejor contenido en tu buzón de entrada.