La UE propone 4 clasificaciones para regular la IA; aquí los detalles

Por Gabriel Rico Albarrán | junio 26, 2023

La Unión Europea (UE) trabaja en crear el andamiaje jurídico para regular el uso de la Inteligencia Artificial (IA). Parte de la propuesta plantea establecer una clasificación de riesgo con cuatro niveles, para proteger y garantizar los derechos de las personas y empresas.

inteligencia artificial, regulación Ia Unión Europea
Foto: Pixfuel

Recomendamos: Elon Musk: regular la IA sí; pero Twitter no

Las bases para regular la IA

Abril de 2021 marcó la fecha de inicio cuando la Comisión Europea presentó por primera vez una propuesta de reglamento sobre Inteligencia Artificial.

En su momento, Thierry Breton, comisario de Mercado Interior declaró lo siguiente:

@ThierryBreton
Foto: Twitter @ThierryBreton

Según el Foro Económico Mundial, la legislación europea para regular la IA se centra en «reforzar las normas sobre calidad de los datos, transparencia, supervisión humana y rendición de cuentas«.

La reglamentación no deja de lado la cuestión ética y toma en cuenta el reto que sería aplicar el reglamento en todos los sectores.

Otro de los propósitos es el establecimiento de requisitos y obligaciones tanto para los desarrolladores como para los usuarios en el uso de la Inteligencia Artificial.

Uno de los alicientes enfocado en las empresas, de acuerdo con la Comisión Europea, buscaría reducir la carga financiera y administrativa, particularmente para las pequeñas y medianas empresas.

Niveles de riesgo sobre la IA

Si bien la Comisión Europea reconoce que existe legislación al respecto para proteger a las personas y empresas, las instrumentos legales resultan insuficientes dado el vertiginoso avance y desarrollo que supone la Inteligencia Artificial.

En ese sentido y con un enfoque basado en riesgos, el marco normativo del reglamento propone los siguientes niveles de riesgo, que van desde el riesgo inaceptable hasta el mínimo o ningún riesgo.

Comisión Europea, niveles de clasificación de riesgo de Inteligencia Artificial
Ilustración: Comisión Europea

Riesgo inaceptable

Se refiere a los sistemas de Inteligencia Artificial que sean considerados «clara amenaza para la seguridad, los medios de subsistencia y los derechos de las personas«.

La Comisión explica que aquellos sistemas o aplicaciones que manipulen el comportamiento humano para eludir el libre albedrío de los usuarios, desde la puntuación social de los gobiernos hasta los juguetes que utilicen asistencia de voz que fomenten conductas peligrosas, serán prohibidos.

Foto: Shutterstock

Alto riesgo

Los sistemas que incluyan tecnología con IA serán los siguientes:

  • Infraestructuras críticas que podrían poner en riesgo la vida y la salud de los ciudadanos.
  • Formación educativa o vocacional que puede determinar el acceso a la educación y el curso profesional de la vida de alguien.
  • Componentes de seguridad de los productos; por ejemplo, aplicación de IA en cirugía asistida por robot.
  • Empleo, gestión de trabajadores y acceso al autoempleo: software de clasificación de CV para procedimientos de contratación.
  • Servicios públicos y privados esenciales como la calificación crediticia que niega a los ciudadanos la oportunidad de obtener un préstamo.
  • Cumplimiento de la ley que pueda interferir con los derechos fundamentales de las personas; por ejemplo, evaluación de la confiabilidad de la evidencia).
  • Gestión de la migración, asilo y control de fronteras, como en la verificación de la autenticidad de los documentos de viaje o sistemas de identificación biométrica remota.
  • Administración de justicia y procesos democráticos como la aplicación de la ley a un conjunto concreto de hechos.

Los sistemas de IA dentro de este nivel de riesgo deberán estar sujetos a obligaciones estrictas previo a su comercialización. Por ejemplo: sistemas de evaluación y mitigación de riesgos y resultados discriminatorios; trazabilidad de los resultados; documentación detallada e información clara tanto para las autoridades como usuarios y medidas de supervisión humana alto nivel de robustez, seguridad y precisión.

datos biométricos IA
Foto: Pixfuel

Riesgo limitado

Se refiere a sistemas de IA que cuenten con obligaciones específicas de transparencia para que los usuarios sepan y estén conscientes de que están interactuando con una máquina y podrán tener la opción de continuar o retroceder. Ejemplo: chatbots.

chatbots
Foto: Pixabay

Riesgo mínimo

Se refiere al uso gratuito de aplicaciones como videojuegos habilitados para IA o filtros de spam.

La Comisión Europea explica que «la gran mayoría de los sistemas de IA entran en esta categoría». Por lo tanto, el proyecto de reglamento no interviene, ya que estos sistemas representan un riesgo mínimo o nulo para los derechos o la seguridad de los ciudadanos.

spam
Foto: Futuro 360

Gabriel Rico Albarrán

No dejes de leer: Regular la IA; la ONU se apunta y Reino Unido busca ser sede del nuevo organismo

Suscríbete a la revista y regístrate a nuestros newsletters para recibir el mejor contenido en tu buzón de entrada.