La Unión Europea (UE) trabaja en crear el andamiaje jurídico para regular el uso de la Inteligencia Artificial (IA). Parte de la propuesta plantea establecer una clasificación de riesgo con cuatro niveles, para proteger y garantizar los derechos de las personas y empresas.
Recomendamos: Elon Musk: regular la IA sí; pero Twitter no
Accede a las historias más relevantes de negocios, bienestar y tecnología. Entérate de nuestros rankings y eventos exclusivos. Suscríbete y recibe en tu correo el mejor contenido de Mercado.
Abril de 2021 marcó la fecha de inicio cuando la Comisión Europea presentó por primera vez una propuesta de reglamento sobre Inteligencia Artificial.
En su momento, Thierry Breton, comisario de Mercado Interior declaró lo siguiente:
Según el Foro Económico Mundial, la legislación europea para regular la IA se centra en «reforzar las normas sobre calidad de los datos, transparencia, supervisión humana y rendición de cuentas«.
La reglamentación no deja de lado la cuestión ética y toma en cuenta el reto que sería aplicar el reglamento en todos los sectores.
Otro de los propósitos es el establecimiento de requisitos y obligaciones tanto para los desarrolladores como para los usuarios en el uso de la Inteligencia Artificial.
Uno de los alicientes enfocado en las empresas, de acuerdo con la Comisión Europea, buscaría reducir la carga financiera y administrativa, particularmente para las pequeñas y medianas empresas.
Si bien la Comisión Europea reconoce que existe legislación al respecto para proteger a las personas y empresas, las instrumentos legales resultan insuficientes dado el vertiginoso avance y desarrollo que supone la Inteligencia Artificial.
En ese sentido y con un enfoque basado en riesgos, el marco normativo del reglamento propone los siguientes niveles de riesgo, que van desde el riesgo inaceptable hasta el mínimo o ningún riesgo.
Se refiere a los sistemas de Inteligencia Artificial que sean considerados «clara amenaza para la seguridad, los medios de subsistencia y los derechos de las personas«.
La Comisión explica que aquellos sistemas o aplicaciones que manipulen el comportamiento humano para eludir el libre albedrío de los usuarios, desde la puntuación social de los gobiernos hasta los juguetes que utilicen asistencia de voz que fomenten conductas peligrosas, serán prohibidos.
Los sistemas que incluyan tecnología con IA serán los siguientes:
Los sistemas de IA dentro de este nivel de riesgo deberán estar sujetos a obligaciones estrictas previo a su comercialización. Por ejemplo: sistemas de evaluación y mitigación de riesgos y resultados discriminatorios; trazabilidad de los resultados; documentación detallada e información clara tanto para las autoridades como usuarios y medidas de supervisión humana alto nivel de robustez, seguridad y precisión.
Se refiere a sistemas de IA que cuenten con obligaciones específicas de transparencia para que los usuarios sepan y estén conscientes de que están interactuando con una máquina y podrán tener la opción de continuar o retroceder. Ejemplo: chatbots.
Se refiere al uso gratuito de aplicaciones como videojuegos habilitados para IA o filtros de spam.
La Comisión Europea explica que «la gran mayoría de los sistemas de IA entran en esta categoría». Por lo tanto, el proyecto de reglamento no interviene, ya que estos sistemas representan un riesgo mínimo o nulo para los derechos o la seguridad de los ciudadanos.
Gabriel Rico Albarrán
No dejes de leer: Regular la IA; la ONU se apunta y Reino Unido busca ser sede del nuevo organismo
Suscríbete a la revista y regístrate a nuestros newsletters para recibir el mejor contenido en tu buzón de entrada.
Con la compra de tu suscripción digital, recibes acceso a contenido premium dentro de nuestra plataforma web.
Acceso exclusivo a noticias, entrevistas y artículos
Acceso prioritario a eventos
Newsletters digitales diarios
Acceso exclusivo a noticias, entrevistas y artículos
Acceso prioritario a eventos
Newsletters digitales diarios
Newsletters especiales y especializados
12 ediciones digitales de Mercado
12 ediciones digitales de Market Brief
Nuevas ediciones al instante en tu correo