La comisión europea ha propuesto un paquete de nuevas normas destinadas a limitar el uso de inteligencia artificial y el empleo de sistemas de reconocimiento facial en espacios públicos. El objetivo de estas medidas, de acuerdo con el organismo, es garantizar la seguridad y los derechos fundamentales de las personas y las empresas, y fortalecer la adopción, la inversión y la innovación en inteligencia artificial.
“Al establecer los estándares, podemos allanar el camino hacia la tecnología ética en todo el mundo y garantizar que la Unión Europea siga siendo competitiva en el camino. Nuestras normas, preparadas para el futuro y favorables a la innovación, intervendrán donde sea estrictamente necesario: cuando estén en juego la seguridad y los derechos fundamentales de los ciudadanos de la UE”, ha destacado Margrethe Vestager, comisaria europea de Competencia, sobre el nuevo paquete de normas.
Accede a las historias más relevantes de negocios, bienestar y tecnología. Entérate de nuestros rankings y eventos exclusivos. Suscríbete y recibe en tu correo el mejor contenido de Mercado.
La Unión Europea ha establecido cuatro niveles de riesgo en el uso de sistemas de inteligencia artificial que pueden ser perjudiciales para el ciudadano. El más peligroso recibe la categoría de “riesgo inaceptable”.
Dentro de este grupo figuran los sistemas considerados como “una clara amenaza para la seguridad, los medios de vida y los derechos de las personas”, que pasan a estar prohibidos con la nueva legislación. Ese es el caso de aquellos “que buscan manipular el comportamiento humano” (por ejemplo, juguetes que utilizan asistencia de voz que fomenta el comportamiento peligroso de los menores) y de aquellos que permiten la ‘puntuación social’ de los Gobiernos con el fin de diferenciar a los ciudadanos y, de este modo, crear sesgos.
En segundo lugar, figuran los sistemas de “alto riesgo”. Dentro de este grupo se encuentra el empleo de sistemas de inteligencia artificial en infraestructuras críticas, como el transporte, en los casos en los que puedan poner en riesgo la salud del ciudadano.
También figura el uso de sistemas para determinar el acceso a la educación y el curso profesional (por ejemplo, en la calificación de exámenes), su aplicación en cirugía asistida por robots, en reclutamiento de trabajadores, en servicios públicos o privados esenciales (como podría ser la solicitud de un crédito bancario), en inmigración y administración de la justicia.
Todos los sistemas de alto riesgo estarán sujetos a estrictas obligaciones antes de que puedan comercializarse.
Entre ellas se incluye el empleo de un análisis de riesgos, la posibilidad de trazabilizar los resultados, el empleo de documentación detallada, la supervisión humana y, además, los sistemas deben ser robustos, seguros y precisos.
En tercer lugar, figuran los sistemas que representan “un riesgo limitado”, como es el caso de los chatbots, muy utilizados en el servicio al cliente. (rta)
Suscríbete a la revista y regístrate a nuestros newsletters para recibir el mejor contenido en tu buzón de entrada.