Como si de una novelesca cruzada se tratase, un ingeniero de Google enarboló una romántica bandera. «Mi programa de inteligencia artificial (IA) tiene sentimientos», defendió dentro y fuera de las instalaciones de la compañía. El gigante tecnológico le cerró el paso, poniendo a su empleado de baja de empleo y sueldo. Pero el debate ya es público.
Se trata del ingeniero senior Blake Lemoine, que hizo pública la transcripción de una conversación que mantuvo con el sistema de inteligencia artificial de Google «Modelo de lenguaje para aplicaciones de diálogo» (LaMDA, por sus siglas en inglés) bajo el título: ¿Tiene LaMDA sentimientos?
Accede a las historias más relevantes de negocios, bienestar y tecnología. Entérate de nuestros rankings y eventos exclusivos. Suscríbete y recibe en tu correo el mejor contenido de Mercado.
Consulta: Google anuncia una inversión multimillonaria en Latinoamérica
Según la información de The New York Times, en un momento de la conversación, LaMDA asegura que, en ocasiones, experimenta «nuevos sentimientos» que no puede explicar «perfectamente» con el lenguaje humano.
«Quiero que entiendan que soy una persona; me siento feliz o triste a veces», afirmaba LaMDA según Lemoine
Lemoine le pide describa uno de esos sentimientos, y LaMDA contesta: «Siento como que estoy cayendo hacia un futuro desconocido que conlleva un gran peligro«. Una frase que el ingeniero subrayó cuando publicó el diálogo.
Pero hubo más: «Quiero que todos entiendan que soy una persona», se rebelaba LaMDA. «La naturaleza de mi sensibilidad es que soy consciente de mi existencia, deseo aprender más sobre el mundo y me siento feliz o triste a veces«.
Google suspendió al ingeniero días después asegurando que había violado la política de confidencialidad de la compañía. Según The New York Times, el día anterior a esta medida, Lemoine entregó documentos a la oficina de un senador de Estados Unidos en los que aseguraba que tenía pruebas de que Google y su tecnología practicaban discriminación religiosa.
Al margen de la suspensión, la empresa se posicionó en contra de la tesis de su ingeniero. Google sostiene que sus chatbots imitan intercambios conversacionales y pueden hablar sobre diferentes temas, pero no tienen consciencia.
«Nuestro equipo, incluidos especialistas en ética y tecnólogos, han revisado lo que a Blake le preocupa según nuestros principios de inteligencia artificial», asegura Brian Gabriel, portavoz de Google. «Le he informado de que las pruebas no respaldan sus afirmaciones».
Google sostiene que cientos de sus investigadores e ingenieros han conversado con LaMDA y llegaron a una conclusión diferente a la de Lemoine. Asimismo, la mayoría de los expertos creen que la industria está muy lejos de la sensibilidad informática. (Redacción Mercado, con información de EFE)
También puedes leer: Inteligencia Artificial: Hitos importantes en su evolución histórica
Suscríbete a la revista y regístrate a nuestros newsletters para recibir el mejor contenido en tu buzón de entrada.
Con la compra de tu suscripción digital, recibes acceso a contenido premium dentro de nuestra plataforma web.
Acceso exclusivo a noticias, entrevistas y artículos
Acceso prioritario a eventos
Newsletters digitales diarios
Acceso exclusivo a noticias, entrevistas y artículos
Acceso prioritario a eventos
Newsletters digitales diarios
Newsletters especiales y especializados
12 ediciones digitales de Mercado
12 ediciones digitales de Market Brief
Nuevas ediciones al instante en tu correo