Orientaciones de la AEPD sobre IA agéntica y protección de datos: por qué es necesario revisar tratamientos existentes

Publicado el 24 de marzo 2026

Incorporar IA agéntica en un proceso, servicio o producto suele implicar una alteración real del tratamiento de datos, obligando a revisar el cumplimiento

Data centre digital landscape

La Agencia Española de Protección de Datos (AEPD) ha publicado sus orientaciones sobre “inteligencia artificial agéntica desde la perspectiva de protección de datos”. En estas orientaciones, la AEPD no se limita a advertir sobre riesgos generales de la IA. Sitúa el foco en algo más concreto: cuando un agente puede planificar subtareas, consultar memoria, invocar herramientas, conectarse con terceros o ejecutar acciones de forma autónoma, cambia el ciclo de vida del dato, la superficie de ataque y, con ello, las exigencias de gobernanza, trazabilidad y control. 

IA agéntica: no es una capa tecnológica más

Las orientaciones no analizan la IA agéntica como una tecnología aislada, sino como una forma de implementar, total o parcialmente, tratamientos de datos personales. Mediante el uso de IA agéntica, puede modificarse el modo en que se accede a los datos, se transforman, se comunican o se conservan.  

En términos prácticos, esto significa que proyectos que internamente se presentan como una mejora funcional de una solución ya desplegada podrían requerir una revisión más profunda del registro de actividades, de las categorías de datos tratadas, de los destinatarios, de las transferencias internacionales, de los plazos de conservación y de las medidas de seguridad. La incorporación de agentes obliga, por tanto, a volver a revisar tratamientos que muchas organizaciones daban por estables.

La cadena de razonamiento importa jurídicamente

La AEPD destaca que conocer la cadena de razonamiento permite conocer el ciclo de vida del dato. No basta con saber qué información entra en el sistema y qué resultado produce. También hay que entender qué fuentes consulta el agente, qué memoria reutiliza, qué herramientas llama, qué transformaciones intermedias realiza y qué datos persisten al final del proceso.  

Desde la protección de datos, esto tiene varias consecuencias. La primera es de trazabilidad: si no puede reconstruirse con suficiente detalle por dónde ha pasado el dato, será difícil justificar minimización, proporcionalidad o limitación de su finalidad. La segunda es de explicabilidad: la organización debe poder identificar qué parte del resultado depende de fuentes, inferencias o memorias concretas. La tercera es de control material del riesgo: sin visibilidad suficiente sobre la cadena de razonamiento, resulta mucho más complejo detectar errores compuestos (p.ej. aquellos que empeoran tras varios razonamientos en cadena) o usos no previstos de datos personales. Actuar de forma contraria a lo indicado en las orientaciones podría resultar en una incapacidad de identificar por qué y cómo se han tratado datos personales, impidiendo motivar requerimientos de las autoridades o de interesados. 

Marco de gobernanza y conexiones externas

Entre las medidas listadas por la AEPD con mayor valor práctico, destacan la necesidad de una gobernanza transversal con intervención de responsables funcionales, equipos TIC, calidad y delegado de protección de datos; la evaluación continua basada en evidencias, con métricas claras, pruebas de referencia y revisión de incidentes; y el uso de listas blancas de servicios, limitación de herramientas accesibles y control de parámetros y respuestas en cada llamada a herramientas.

Sobre el uso de herramientas o recursos de terceros por parte de agentes, recordamos que ello puede hacer que aparezcan nuevos encargados, subencargados, responsables independientes o incluso escenarios de corresponsabilidad. También pueden activarse nuevas memorias persistentes, nuevos flujos internacionales de datos y nuevas obligaciones contractuales o informativas.  

Por eso, la AEPD insiste en revisar no solo los contratos, sino también los términos y condiciones, las políticas de privacidad, las condiciones de uso y, en su caso, los cambios de versión o funcionalidad de esos servicios. En un entorno agéntico, una llamada a una herramienta externa puede convertirse, de facto, en una salida parcial del tratamiento con relevancia propia. Esa revisión debe hacerse desde el diseño y mantenerse durante el ciclo de vida del sistema, no únicamente en el momento inicial de despliegue.

Minimización y control de memoria

Las orientaciones son especialmente exigentes en materia de minimización. La AEPD parte de una premisa razonable: los agentes pueden tender a buscar eficacia mediante volumen, esto es, recurriendo a más datos, más contexto y más memoria de la estrictamente necesaria. Precisamente por ello, refuerza la necesidad de definir políticas de acceso según tratamiento, de catalogar los datos disponibles y sus fuentes, o de aplicar controles sobre la calidad, procedencia y coherencia de la información utilizada, entre otras medidas.


Una mala gestión de repositorios, metadatos o etiquetas no es solo un problema de orden interno. Puede llevar a que el agente trate de forma indiscriminada información personal irrelevante, reutilice contexto fuera de finalidad o acceda a categorías especiales de datos sin necesidad real. En otras palabras, la gobernanza del dato pasa a ser una condición de viabilidad del caso de uso.  
La AEPD además señala que las estrategias de minimización deben complementarse con un control de la memoria del sistema de IA agéntica. Entre otras medidas, menciona la compartimentación por tratamientos, casos o usuarios; la separación entre memoria de la organización y memoria de la persona usuaria; plazos estrictos de retención; y técnicas de higienización sobre la memoria persistente.  

Ejercicio de Derechos

La organización debe poder localizar todos los elementos que puedan quedar comprendidos en una solicitud de acceso, rectificación, supresión, limitación, oposición o portabilidad. Esto incluye, cuando contengan datos personales, los propios prompts y otros elementos intermedios del proceso. La exigencia de trazabilidad granular no es, por tanto, un ideal técnico; es una condición práctica para poder atender derechos.

Medidas que conviene priorizar

La AEPD adelanta una lista no exhaustiva de medidas, entre las que merecen especial atención las medidas de diseño y control: 

  • Trazabilidad integral: implementar mecanismos que permitan rastrear los datos personales durante su ciclo de vida (identificando cuándo, cómo y por qué se trata la información)
  • Mecanismos de repetibilidad: establecer métodos que permitan comprobar que un mismo input genera outputs razonablemente similares.
  • Control estricto de actualizaciones: analizar en un entorno de pruebas el impacto de las actualizaciones sobre los sistemas actuales y aplicar regularmente actualizaciones, especialmente en situaciones de vulnerabilidades graves.
  • Sandboxing: establecer un entorno de pruebas controlado, en el que la organización pueda poner a prueba sus sistemas con datos sintéticos (no personales).
  • Circuit breakers: elementos ubicados a lo largo de los procesos que los detienen automáticamente la ejecución de un agente si detectan actividades anómalas.
  • Controles de calibrado de los agentes y alineación con las políticas y objetivos: en línea con la idea repetibilidad, las organizaciones deberían asegurarse de que las evoluciones de sus sistemas no alteran el comportamiento de los agentes y los desalinean con los propósitos originales y las políticas que definen su funcionamiento.

En paralelo, las organizaciones deberían revisar si la incorporación del agente exige realizar o actualizar una evaluación de impacto.

Comentario de Osborne Clarke

Desplegar IA agéntica sin rediseñar previamente el tratamiento, sin reforzar trazabilidad y sin delimitar con precisión herramientas, memorias, autonomías y responsabilidades aumenta de forma apreciable el riesgo de incumplimiento. Precisamente por eso, estos proyectos deberían abordarse como ejercicios coordinados de rediseño de cumplimiento, y no como una mera decisión tecnológica.  

 

* This article is current as of the date of its publication and does not necessarily reflect the present state of the law or relevant regulation.

Interested in hearing more from Osborne Clarke?