Consulta online tus preguntas de seguros
¿Qué sistemas considera el Reglamento de IA de alto riesgo?
Los sistemas de IA clasificados como de alto riesgo según el Reglamento de Inteligencia Artificial (UE) 2024/1689, aprobado en agosto de 2024, incluyen aquellos afectan los campos de la seguridad, la salud o los derechos fundamentales de las personas. Estos sistemas incluyen:
- Biometría:
-
- Sistemas de identificación biométrica remota en espacios públicos (ej. reconocimiento facial).
- Sistemas de categorización biométrica basada en atributos sensibles (ej. etnia, género).
- Sistemas de reconocimiento de emociones en entornos sensibles.
- Infraestructuras críticas: usados en la gestión y seguridad de infraestructuras digitales y servicios esenciales como agua, gas, electricidad o tráfico.
- Educación y formación: cuando la IA determina el acceso a instituciones educativas o distribuye a estudiantes, o sistemas que evalúan resultados académicos que influyen en el aprendizaje.
- Empleo y recursos humanos: cuando la IA se aplica a la selección de personal, condiciones laborales, y asignación de tareas o los sistemas de monitoreo y evaluación de trabajadores, especialmente en plataformas digitales.
- Aplicación de la ley y seguridad pública: cuando la IA es usada por autoridades para evaluar riesgos en investigaciones criminales, o los sistemas de elaboración de perfiles o predicción de comportamientos delictivos.
- Procesos de asilo, inmigración y control fronterizo: cuando la IA analiza solicitudes de visado o determina el riesgo de las personas al ingresar al territorio de la UE.
- Elecciones y procesos democráticos: cuando la IA influye en decisiones electorales o el comportamiento de los votantes.
Estos sistemas están sujetos a requisitos específicos de documentación, supervisión humana, y pruebas de conformidad para mitigar sus riesgos asociados.
Te interesa