Inteligencia artificial en servicios públicos: modernizar con garantías

Innovación y Sostenibilidad
Inteligencia artificial en servicios públicos: modernizar con garantías
Gabriele Vestri
Presidente del Observatorio Sector Público e Inteligencia Artificial. www.ospia.org
Fecha: 12/11/2025
La aplicación de inteligencia artificial en los servicios públicos, si bien moderniza la Administración, debe regirse por garantías para proteger los derechos de la ciudadanía. Es fundamental que los algoritmos sean transparentes y auditables, permitiendo la trazabilidad de las decisiones y la revisión por un órgano independiente. La eficiencia no debe comprometer la legitimidad de la acción pública. Se deben implementar evaluaciones de impacto algorítmico para mitigar sesgos y asegurar la equidad, garantizando que la IA fortalezca los valores democráticos y el Estado de derecho.

La inteligencia artificial aplicada a los servicios públicos se ha consolidado como una palanca de modernización administrativa capaz de automatizar procedimientos, optimizar recursos y personalizar la relación con la ciudadanía. Pero los algoritmos no son meros instrumentos técnicos: incorporan reglas y ponderaciones que inciden directamente en derechos subjetivos, intereses legítimos y en la igualdad de trato. De ahí que su despliegue deba someterse a un conjunto de garantías que aseguren la trazabilidad de las decisiones, la inteligibilidad de los criterios utilizados y la plena posibilidad de control jurisdiccional, en coherencia con el derecho fundamental de acceso a la información pública, la normativa de transparencia y los desarrollos del marco digital europeo.

Los algoritmos no son meros instrumentos técnicos: incorporan reglas y ponderaciones que inciden directamente en derechos subjetivos, intereses legítimos y en la igualdad de trato.

La adopción de sistemas algorítmicos en la Administración ha de enmarcarse en los principios de proporcionalidad, legalidad, no discriminación y buena administración. Ello exige diseñar y operar soluciones que permitan reconstruir el “camino decisorio” seguido por la máquina, identificar parámetros, umbrales y fuentes de datos, y motivar las resoluciones en términos comprensibles para el administrado y revisables por un órgano independiente. La publicidad activa —interpretada conforme a la Ley 19/2013— no puede diluirse por la complejidad técnica del modelo ni por invocaciones genéricas a la confidencialidad o al secreto comercial: las eventuales limitaciones han de aplicarse restrictivamente y nunca convertirse en una coartada para la opacidad.

La adopción de sistemas algorítmicos en la Administración ha de enmarcarse en los principios de proporcionalidad, legalidad, no discriminación y buena administración.

En el sector público, los algoritmos se usan sobre todo para decidir, gestionar recursos y prestar servicios. Cuando una máquina ayuda a tomar decisiones —por ejemplo, al evaluar solicitudes de ayudas, calcular prestaciones o repartir plazas educativas— debe hacerlo con reglas claras y justas. La Ley 39/2015 exige que el proceso sea explicable, que quede rastro de cómo se llega a cada resultado y que exista una revisión humana real para corregir errores.

Cuando una máquina ayuda a tomar decisiones —por ejemplo, al evaluar solicitudes de ayudas, calcular prestaciones o repartir plazas educativas— debe hacerlo con reglas claras y justas.

En la gestión de recursos —presupuestos, plantillas, atención sanitaria o movilidad— las predicciones pueden ser muy útiles, pero si el método es opaco puede perjudicar la igualdad y generar discriminación. Por eso es imprescindible dejar por escrito cómo funciona cada modelo, explicar por qué se pondera de una manera u otra y permitir auditorías técnicas y jurídicas.

Las predicciones pueden ser muy útiles, pero si el método es opaco puede perjudicar la igualdad y generar discriminación.

Y en la relación diaria con la ciudadanía —citas previas, asistentes conversacionales o turnos— la automatización debe incluir controles de sesgo y mecanismos de rendición de cuentas que permitan detectar desviaciones, corregirlas a tiempo y reparar los posibles daños.

Particular relevancia adquiere la contratación pública. La Ley 9/2017 impone transparencia, libre concurrencia e igualdad de trato; por tanto, cuando se empleen algoritmos para valorar ofertas, detectar anormalidades o gestionar plazos, los parámetros y ponderaciones deben ser cognoscibles y auditables. La integridad del procedimiento demanda, además, trazabilidad ex post de cada hito, verificación independiente de sesgos que puedan restringir la competencia y publicación suficiente sobre el funcionamiento de los sistemas, sin perjuicio de salvaguardas proporcionadas de confidencialidad.

La integridad del procedimiento demanda, además, trazabilidad ex post de cada hito.

El reto principal es equilibrar la búsqueda de eficiencia con la transparencia. Ser más rápidos o precisos no justifica usar sistemas que nadie entiende. La Administración debe garantizar que la automatización refuerce la confianza pública.

El reto principal es equilibrar la búsqueda de eficiencia con la transparencia.

Para ello, antes de poner un sistema en marcha hay que dejar todo bien documentado y probado: un dossier técnico y jurídico completo, protocolos de test y validación, y un “expediente del algoritmo” con sus versiones, los datos de entrenamiento, los indicadores de rendimiento, los controles para evitar sesgos y las decisiones sobre cómo se gobierna y quién responde.

Una vez en funcionamiento, el sistema debe estar bajo vigilancia continua, ofrecer explicaciones claras a las personas afectadas y permitir reclamaciones sencillas. Además, tiene que existir una revisión humana real y la capacidad de corregir rápido cualquier problema que aparezca.

Los riesgos de sesgo —derivados de datos históricos, reglas de diseño o decisiones operativas— son particularmente complejos cuando las salidas del sistema condicionan el acceso a prestaciones o la posición jurídica del ciudadano. El artículo 14 de la Constitución impone un estándar reforzado de igualdad que, en clave algorítmica, se traduce en diagnósticos periódicos de impacto, pruebas de no discriminación y medidas correctoras. La Administración pública debe incorporar las que podemos denominar “Evaluaciones de Impacto Algorítmico”, inspiradas en la lógica de las evaluaciones del RGPD, que analicen la proporcionalidad de la finalidad, la idoneidad del modelo, los riesgos de error y las salvaguardas de equidad, accesibilidad e inteligibilidad. En este ecosistema, el Real Decreto 817/2023, que articula un entorno controlado de pruebas para sistemas de IA en línea con el Reglamento europeo, ofrece un marco útil para validar técnicamente soluciones de alto riesgo, ensayar controles de sesgo —incluidos informes de impacto de género— y someter los modelos a escrutinio multidisciplinar. Su utilidad práctica exige, sin embargo, claridad en la asignación de responsabilidades, suficiencia de recursos y transparencia de resultados.

Los riesgos de sesgo —derivados de datos históricos, reglas de diseño o decisiones operativas— son particularmente complejos cuando las salidas del sistema condicionan el acceso a prestaciones o la posición jurídica del ciudadano.

Una gobernanza algorítmica madura combina obligaciones de publicidad con control interno y externo. Son piezas relevantes un registro público de sistemas de decisión automatizada, políticas de datos que garanticen calidad, representatividad y minimización, cláusulas contractuales que impongan a proveedores deberes de explicabilidad y auditoría, y órganos de supervisión con capacidades técnicas. A ello ha de añadirse un derecho a obtener información “significativa” sobre la lógica aplicaday las consecuencias previstas, junto con una revisión humana real y no meramente formal, especialmente en ámbitos sensibles como ayudas sociales, sanidad o empleo público. El principio de eficiencia del artículo 103 CE solo se realiza plenamente cuando la innovación tecnológica se alinea con la transparencia, la igualdad material y la seguridad jurídica.

Una gobernanza algorítmica madura combina obligaciones de publicidad con control interno y externo.

Así, la IA en los servicios públicos solo es compatible con el Estado de derecho si se despliega bajo un marco claro y robusto que imponga trazabilidad, transparencia algorítmica y supervisión efectiva. La Administración no puede delegar sin más su potestad decisoria en dispositivos opacos; debe gobernarlos con reglas, controles y responsabilidades. Solo así la automatización dejará de ser una promesa abstracta para convertirse en un instrumento de buena administración, capaz de mejorar la eficacia sin sacrificar los valores democráticos que legitiman la acción pública.

Así, la IA en los servicios públicos solo es compatible con el Estado de derecho si se despliega bajo un marco claro y robusto que imponga trazabilidad, transparencia algorítmica y supervisión efectiva.

Autor/a: Gabriele Vestri

imagen: «iStock.com/alexsl/»

Compártelo en las redes

Imprimir

Suscríbete a nuestro Blog

y recibe los nuevos posts en tu correo

Scroll al inicio