Inteligencia artificial en el Gobierno de Aragón
Contenidos
-
Marco normativo
-
Gobernanza de los datos
-
Marco normativo
-
Gobernanza de los datos
Riesgos del uso de la IA
Conoce los riesgos del uso de la IA, como pérdida de privacidad, sesgos, opacidad o uso indebido, y la importancia de controles, transparencia y supervisión humana para garantizar uso responsable.
Última actualización: 03/04/2026
Los sistemas de IA toman decisiones o hacen recomendaciones a partir de datos y reglas programadas. Si estos datos son incompletos, incorrectos o se usan sin controles adecuados, los resultados pueden no ser justos o adecuados.
Además, cuando se utilizan sistemas automatizados en ámbitos que afectan directamente a las personas, como el acceso a servicios públicos o la gestión de información personal, es especialmente importante extremar las precauciones.
Algunos de los riesgos más habituales que pueden aparecer en el uso de la IA son los siguientes:
- Pérdida de privacidad: muchos sistemas de IA utilizan grandes cantidades de datos. Si no se protegen correctamente, pueden ponerse en riesgo los datos personales de la ciudadanía.
- Decisiones injustas o discriminatorias: si los sistemas se entrenan con datos sesgados, pueden generar resultados que perjudiquen a determinados colectivos.
- Falta de transparencia: en algunos casos, las personas no saben que están interactuando con un sistema de IA o no entienden cómo se ha tomado una decisión.
- Dependencia excesiva de la tecnología: confiar plenamente en sistemas automatizados puede reducir el control humano y dificultar la corrección de errores.
- Uso indebido o no autorizado: la IA puede emplearse de forma inadecuada si no existen normas claras y mecanismos de supervisión.
La importancia del control y la supervisión
Para reducir estos riesgos, es fundamental que el uso de la IA esté siempre supervisado por personas responsables. Las decisiones importantes no deben quedar únicamente en manos de máquinas, y debe existir la posibilidad de revisar y corregir los resultados cuando sea necesario.
Además, antes de implantar nuevos sistemas de IA, es importante analizar previamente sus posibles impactos y comprobar que cumplen la normativa y los principios éticos establecidos.
Uno de los elementos clave para minimizar los riesgos es la transparencia. La ciudadanía tiene derecho a saber cuándo se está utilizando IA y con qué finalidad. Esta información clara y accesible contribuye a generar confianza y a evitar situaciones de desinformación o desconfianza.
Los riesgos de la IA existen, pero pueden gestionarse de forma adecuada si se aplican controles, normas y principios claros. El objetivo no es dejar de usar la tecnología, sino hacerlo con responsabilidad, sentido común y respeto a las personas.
Una IA bien regulada y supervisada puede ser una herramienta útil y positiva. Conocer sus riesgos es el primer paso para garantizar que su uso contribuya al bienestar social y al interés general.
Temas asociados:
Organismos asociados:
¿Te ha resultado útil esta página?
Tu respuesta nos ayudará a mejorar la web
Gracias por tu valoración
Para cualquier consulta, escríbenos a portalpublico@aragon.es
Puedes dejar aquí tu comentario anónimo.