¿Qué sistemas considera el Reglamento de IA de alto riesgo?
Los sistemas de IA clasificados como de alto riesgo según el Reglamento de Inteligencia Artificial (UE) 2024/1689, aprobado en agosto de 2024, incluyen aquellos afectan los campos de la seguridad, la salud o los derechos fundamentales de las personas. Estos sistemas incluyen:
1. Biometría:
- Sistemas de identificación biométrica remota en espacios públicos (ej. reconocimiento facial).
- Sistemas de categorización biométrica basada en atributos sensibles (ej. etnia, género).
- Sistemas de reconocimiento de emociones en entornos sensibles.
2. Infraestructuras críticas: usados en la gestión y seguridad de infraestructuras digitales y servicios esenciales como agua, gas, electricidad o tráfico.
3. Educación y formación: cuando la IA determina el acceso a instituciones educativas o distribuye a estudiantes, o sistemas que evalúan resultados académicos que influyen en el aprendizaje.
4. Empleo y recursos humanos: cuando la IA se aplica a la selección de personal, condiciones laborales, y asignación de tareas o los sistemas de monitoreo y evaluación de trabajadores, especialmente en plataformas digitales.
5. Aplicación de la ley y seguridad pública: cuando la IA es usada por autoridades para evaluar riesgos en investigaciones criminales, o los sistemas de elaboración de perfiles o predicción de comportamientos delictivos.
6. Procesos de asilo, inmigración y control fronterizo: cuando la IA analiza solicitudes de visado o determina el riesgo de las personas al ingresar al territorio de la UE.
7. Elecciones y procesos democráticos: cuando la IA influye en decisiones electorales o el comportamiento de los votantes.
Estos sistemas están sujetos a requisitos específicos de documentación, supervisión humana, y pruebas de conformidad para mitigar sus riesgos asociados.