Facebook de nuevo protagoniza el centro de una controversia, esta vez por acusaciones de discriminación por género y edad en su algoritmo de publicidad laboral. La respetada compañía Global Witness ha realizado un estudio bastante polémico alrededor del algoritmo, con fuertes consecuencias para la plataforma. La Inteligencia Artifical juega en contra de las mujeres una vez más, pero ¿quién es el responsable de su desarrollo?
Imagina por un momento que te encuentras en una pausa para almorzar y que tú y tu compañero de trabajo se desplazan por sus feeds de Facebook en sus escritorios. Trabajan en la misma empresa y tienen funciones, responsabilidades y experiencias similares. Entonces, ¿qué sucede si su colega ve un anuncio de un trabajo interesante y bien pagado que te encantaría tener la oportunidad de aplicar, pero no lo has visto? Él te lo menciona, actualizas feed y escaneas los anuncios nuevamente, pero nada que aparece. Algo pasa.
Accede a las historias más relevantes de negocios, bienestar y tecnología. Entérate de nuestros rankings y eventos exclusivos. Suscríbete y recibe en tu correo el mejor contenido de Mercado.
En primer lugar, Facebook depende completamente de los datos que recopila acerca de nosotros tanto dentro como fuera de la plataforma.
En primer lugar, Facebook depende completamente de los datos que recopila acerca de nosotros tanto dentro como fuera de la plataforma. Utilizando miles de puntos de datos, incluidas características como la edad y el sexo, la plataforma extrae inferencias sobre cada usuario, nos perfila a cada uno de nosotros y luego cobra a los anunciantes por la capacidad de segmentar perfiles particulares y enviar anuncios a sus feeds.
El grupo de Reino Unido, Global Witness, prestó atención a todas las señales de alerta y llegó a una conclusión después de seguir los datos con fuertes señales: Facebook parece funcionar de forma discriminatoria. Esta conclusión llegó después de crear dos anuncios de empleo con la intención de utilizar diferentes formas de segmentación discriminatoria. Un anuncio estaba orientado a excluir las mujeres y el otro a personas mayores de 55 años.
Aunque Facebook le pidió a Global Witness que marcara una casilla que indicaba que cumpliría con la política de no discriminación al colocar los anuncios, el gigante de las redes sociales finalmente violó su propia política cuando aprobó la publicación de ambos anuncios. Global Witness retiró los anuncios de Facebook antes de la fecha de publicación programada.
Para probar esto aún más y ver si los algoritmos de Facebook mostraban signos de sesgo automatizado, Global Witness realizó una prueba separada con cuatro anuncios adicionales. Los anuncios estaban vinculados a cuatro vacantes de trabajo reales: para mecánicos, enfermeras preescolares, pilotos y psicólogos. Global Witness dijo que utilizó el objetivo «Tráfico / Clics en enlaces», que, según Facebook , garantiza que los anuncios se entreguen a «las personas que tienen más probabilidades de hacer clic en ellos».
Debido a que Global Witness no especificó ningún criterio de orientación, el algoritmo de Facebook tenía el control total de a quién se mostraban los anuncios. Los resultados fueron los siguientes:
No solo hay discriminación, sino que tiene sesgos de roles de género que encasillan las posibilidades de que puestos de empleos, oportunidades de inversión e incluso productos en venta y servicios lleguen a las mujeres. Global Witness no se ha quedado de brazos cruzados y ha presentado una solicitud a la Comisión de Igualdad y Derechos Humanos del Reino Unido y ha escrito al Comisionado de Información para obligar a Facebook a cambiar sus formas.
¿Las leyes de derechos civiles que rigen a otras empresas deberían aplicarse también a las plataformas de Internet?
Esto pone en tela de juicio la forma en que se desarrollan las cosas en los entornos digitales, ¿Las leyes de derechos civiles que rigen a otras empresas deberían aplicarse también a las plataformas de Internet? Por ejemplo, un restaurante no puede ofrecer menús diferentes para hombres y mujeres, o quizás un ladies night en algún bar.
Antes de las redes sociales, los trabajos para mecánicos pueden haberse anunciado en revistas dirigidas a hombres. Como dijo la jefa de la campaña de amenazas digitales de Global Witness, Naomi Hirst : “La diferencia aquí es que si eres una mujer que busca trabajo como mecánica, puedes ir a una tienda y comprar esa revista con la misma facilidad que tu compañero masculino. Simplemente no es cierto en línea «.
Está claro que la tecnología de anuncios de empleo de Facebook permite la discriminación, ya sea directa o indirecta, incluso cuando la red promete mejorar continuamente. Vivimos en una época en que los algoritmos determinan si alguien ve o no un anuncio determinado, pero cuando esos algoritmos reflejan los mismos sesgos humanos y prácticas ilegales que causaron la desigualdad en primer lugar, ¿cómo podemos esperar avanzar hacia la paridad? Después de todo, las redes son los cristales con los que muchos están moldeando la realidad. (KR)