Inteligencia artificial en el Gobierno de Aragón
Contenidos
-
Marco normativo
-
Gobernanza de los datos
-
Marco normativo
-
Gobernanza de los datos
Niveles de riesgo de los sistemas de IA
Conoce los niveles de riesgo del Reglamento europeo de IA y cómo cada categoría establece obligaciones proporcionales aplicables.
Última actualización: 03/04/2026
Apartados de esta página
Apartados de esta página
La Unión Europea ha aprobado el Reglamento (UE) 2024/1689 de inteligencia artificial, el primer marco jurídico específico para regular cómo se desarrollan y usan los sistemas de inteligencia artificial (IA). Su objetivo principal es asegurar que la IA se utilice de forma segura, responsable y respetando los derechos de las personas.
El Reglamento establece las obligaciones que deben cumplir quienes desarrollan, distribuyen o utilizan sistemas de IA y clasifica estos sistemas según su nivel de riesgo, lo que permite aplicar obligaciones y controles proporcionales según el tipo de uso que se haga de la tecnología y el impacto potencial de cada sistema.
Los cuatro niveles de riesgo que establece el Reglamento son los siguientes:
- Riesgo prohibido.
- Riesgo alto.
- Riesgo limitado.
- Riesgo mínimo o nulo.
Sistemas de riesgo prohibido
Los sistemas de IA clasificados como riesgo inaceptable están prohibidos por el Reglamento en la Unión Europea por considerarlos contrarios a los derechos y valores fundamentales. Esta prohibición es de aplicación directa y general en todos los Estados miembros.
Un ejemplo de sistema de IA de riesgo prohibido sería un sistema de puntuación social, que evalúa o clasifica a las personas a lo largo del tiempo basándose en su comportamiento social o en características personales (hábitos, opiniones, situación económica o datos inferidos), y utiliza esa puntuación para tomar decisiones que les afectan, como limitar el acceso a ayudas, servicios públicos o derechos.
Esto sería un ejemplo de sistema de nivel de riesgo prohibido porque:
- pueden provocar discriminación injusta,
- permiten un control social desproporcionado,
- afectan gravemente a derechos como la igualdad, la dignidad humana y la privacidad.
Sistemas de alto riesgo
Los sistemas de IA de alto riesgo son aquellos que se utilizan en ámbitos muy importantes para la vida de las personas, la educación, la sanidad, el empleo, la justicia o el acceso a servicios públicos.
Estos sistemas no están prohibidos, pero sí requieren más controles y garantías para asegurar que funcionan correctamente y no perjudican a nadie. Cuando un sistema se considera de alto riesgo, las organizaciones que lo desarrollan o utilizan deben cumplir obligaciones más estrictas, como documentar bien su funcionamiento, supervisarlo regularmente y aplicar medidas de control adicionales.
Sistemas de riesgo limitado
Los sistemas de riesgo limitado son aquellos que pueden utilizarse con normalidad, pero respecto de los cuales el Reglamento exige medidas específicas de transparencia.
En estos casos, la normativa establece que las personas deben ser informadas de forma clara cuando interactúan con un sistema de IA o cuando determinados contenidos han sido generados o modificados mediante IA. El objetivo es que la ciudadanía pueda identificar fácilmente cuándo está interactuando con una tecnología automatizada.
Sistemas de riesgo mínimo o nulo
Gran parte de los sistemas de IA que se utilizan actualmente se consideran de riesgo mínimo o nulo. Estos sistemas pueden emplearse libremente y no tienen obligaciones adicionales, más allá de cumplir las leyes generales ya existentes, como la protección de datos personales o la seguridad de los productos.
El Reglamento reconoce expresamente que este tipo de aplicaciones no requieren una regulación específica adicional, lo que facilita la innovación y favorece el uso cotidiano de la IA en múltiples ámbitos.
Temas asociados:
Organismos asociados:
¿Te ha resultado útil esta página?
Tu respuesta nos ayudará a mejorar la web
Gracias por tu valoración
Para cualquier consulta, escríbenos a portalpublico@aragon.es
Puedes dejar aquí tu comentario anónimo.