[vc_row][vc_column][vc_column_text]Filtrar información confidencial es un delito, sin embargo, el mundo no condena a aquellos ejecutivos que lo hacen en pro del bienestar común. Esta semana de nuevo suena el nombre de Google, luego de que se revelara los sesgos con el que fue creado su chatbot, comprometiendo la ética del Google’s AI Chatbot.
Blake Lemoine, exingeniero de Google, conmovió al mundo de la tecnología en las últimas semanas por filtrar esta información. El Bot, conocido como LaMDA (Language Model for Dialog Applications), tiene puntos de vista discriminatorios contra los de algunas razas y religiones, por no decir que también de género.
Accede a las historias más relevantes de negocios, bienestar y tecnología. Entérate de nuestros rankings y eventos exclusivos. Suscríbete y recibe en tu correo el mejor contenido de Mercado.
«El tipo de problemas que plantean este tipo de IA, las personas que las construyen no los ven», dijo Blake Lemoine, y culpó del problema a la falta de diversidad en los ingenieros que trabajan en el proyecto. «Nunca han sido pobres. Nunca han vivido en comunidades de color. Nunca han vivido en las naciones en desarrollo del mundo. No tienen idea de cómo esta IA podría afectar a personas diferentes a ellos».
Más allá de generar respuestas ocurrentes, el verdadero motivo de preocupación es darle a la población herramientas defectuosas que vengan plagadas con sesgos de inteligencia artificial de orden racial, religioso o de género.
Aún así, el ingeniero reconoce que se trata de la innovación técnica más poderosa de la compañía hasta la fecha. Mientras tanto, el gigante de la tecnología actuaría de forma poco ética si le dan difusión a este producto defectuoso.
«Son simplemente ingenieros que construyen sistemas mejores y más grandes para aumentar los ingresos de Google, sin ser éticos», dijo en una entrevista para Business Insider.
«Si se desea desarrollar tecnología como Google’s AI Chatbot, las empresas tienen la responsabilidad moral de salir y recopilar datos relevantes que no están disponibles en internet», dice Lemoine. «De lo contrario todo lo que estás haciendo es crear una inteligencia artificial que apunte a los valores occidentales ricos y blancos», concluyó .
Aunque todavía está por verse el verdadero poder de LaMDA, la realidad es que va un paso por delante de los modelos de lenguaje anteriores a Google. Está diseñado para entablar conversaciones de formas más naturales que cualquier otro dispositivo.
Google respondió a las afirmaciones de Lemoine asegurando que LaMDA ha pasado por 11 revisiones éticas. La compañía agrega que su «responsable» desarrollo se detalló en un documento publicado por ellos mismos a principios de este año.
Si bien es cierto que no se puede comprobar con exactitud que el Bot es consciente de los resultados que arroja, no existen pruebas que digan lo contrario. Si tenemos en cuenta que se trata de la tecnología de IA más moderna de Google, podemos desmentir que sea de total desconocimiento los sesgos que posee.
Expertos apuntan que las predicciones algorítmicas no solo excluyen y estereotipan a las personas, sino que también pueden encontrar nuevas formas de categorizar y discriminar a los seres humanos.
Al respecto, Sandra Wachter, profesora de la Universidad de Oxford, sostiene que su mayor preocupación es «la falta de marcos legales para detener la discriminación por IA». Este incidente puede ser el detonante que finalmente arroje luz sobre los marcos legales que definan la ética de las nuevas tecnologías.
Por: KR.[/vc_column_text][/vc_column][/vc_row]
Con la compra de tu suscripción digital, recibes acceso a contenido premium dentro de nuestra plataforma web.
Acceso exclusivo a noticias, entrevistas y artículos
Acceso prioritario a eventos
Newsletters digitales diarios
Acceso exclusivo a noticias, entrevistas y artículos
Acceso prioritario a eventos
Newsletters digitales diarios
Newsletters especiales y especializados
12 ediciones digitales de Mercado
12 ediciones digitales de Market Brief
Nuevas ediciones al instante en tu correo