Política como código: cómo aplicar reglas de agentes de IA en tiempo de ejecución
La política como código te permite definir reglas de gobernanza que se evalúan en línea durante la ejecución del agente. Aprende a implementar la aplicación de políticas en tiempo de ejecución para agentes de IA con ejemplos prácticos.
¿Qué es la política como código para agentes de IA?
La política como código es la práctica de definir reglas de gobernanza en formato legible por máquinas que se aplican automáticamente durante la ejecución del agente. En lugar de depender de revisiones manuales, documentación o formación para asegurar que los agentes se comporten correctamente, las políticas se evalúan en línea, bloqueando acciones no autorizadas antes de que se ejecuten.
Para los agentes de IA, esto significa que cada acción que un agente intenta, cada llamada a herramienta, cada acceso a datos, cada solicitud a API, se verifica contra un conjunto de reglas antes de que se le permita proceder. Si la acción viola una política, se bloquea. Si pasa, se permite y se registra.
Por qué las políticas manuales no funcionan para agentes
Los agentes de IA operan a una velocidad e escala que hace que la aplicación manual de políticas sea imposible:
- Velocidad: Un agente puede ejecutar cientos de acciones por minuto. Ningún revisor humano puede seguir este ritmo.
- Volumen: Las organizaciones despliegan docenas o cientos de agentes. Cada uno necesita gobernanza.
- No determinismo: El mismo agente puede tomar caminos diferentes en cada ejecución. Las pruebas antes del despliegue no pueden cubrir todos los escenarios.
- Evolución continua: Los modelos, prompts y herramientas se actualizan constantemente. Las políticas deben adaptarse al mismo ritmo.
Anatomía de una política de agente
Una política de agente efectiva define tres cosas: qué se está gobernando, cuáles son las reglas, y qué ocurre cuando se viola una regla.
# Ejemplo: Política para un agente de atención al cliente
agent: customer-support-bot
version: "1.2"
policies:
data_access:
allowed_sources:
- "customer_tickets"
- "product_knowledge_base"
- "faq_database"
blocked_sources:
- "customer_pii_raw"
- "financial_records"
- "employee_directory"
pii_handling: "detect-and-redact"
tool_permissions:
allowed:
- name: "ticket_lookup"
parameters:
max_results: 10
- name: "knowledge_search"
- name: "escalate_to_human"
blocked:
- name: "database_write"
- name: "email_send"
- name: "agent_spawn"
cost_limits:
per_request:
max_tokens: 8000
max_cost_usd: 0.10
per_day:
max_cost_usd: 25.00
max_requests: 5000
output_rules:
max_response_tokens: 2048
content_filtering: "strict"
pii_in_output: "block"
escalation:
on_policy_violation: "block_and_log"
on_cost_threshold: "warn_at_80_percent"
on_blocked_action: "notify_owner"
Aplicación en línea vs. monitorización post-hoc
La diferencia fundamental entre la política como código y las herramientas de monitorización tradicionales es cuándo se actúa:
Monitorización post-hoc: La acción se ejecuta, se registra, y alguien la revisa después. Si fue una violación, ya ha ocurrido.
Aplicación en línea: La acción se evalúa antes de ejecutarse. Si viola una política, se bloquea antes de que tenga efecto. El agente recibe un error y el incidente se registra.
Para la gobernanza de agentes de IA, la aplicación en línea es el único enfoque que funciona. Como discutimos en nuestro artículo sobre por qué importa la gobernanza de agentes de IA, los agentes operan a velocidades donde el daño de una acción no autorizada puede ser irreversible para cuando un humano la revise.
Cómo funciona la evaluación de políticas en runtime
- El agente decide una acción: El agente determina que necesita llamar a una herramienta, acceder a datos o producir una salida.
- La solicitud llega a la capa de gobernanza: Antes de que la acción se ejecute, la solicitud se envía al motor de políticas.
- El motor de políticas evalúa: Las reglas relevantes se evalúan contra la solicitud. ¿La herramienta está permitida? ¿El agente tiene acceso a esos datos? ¿Está dentro del presupuesto?
- Decisión: Si todas las políticas pasan, la acción procede. Si alguna falla, la acción se bloquea.
- Registro: El resultado de la evaluación se registra como parte del registro de auditoría del agente, ya sea que la acción fue permitida o bloqueada.
Política como código en la práctica
Control de acceso a herramientas
Cada herramienta a la que un agente tiene acceso debe tener una política que defina no solo si el agente puede usarla, sino cómo puede usarla. Para más detalle sobre este tema, consulta nuestro artículo sobre políticas para invocación de funciones en agentes de IA.
Límites de costes
Las políticas de costes previenen los costes desbocados al aplicar límites por solicitud, por tarea y por período. Cada llamada a un LLM se evalúa contra el presupuesto restante del agente antes de ejecutarse.
Restricciones de datos
Las políticas de datos controlan qué fuentes puede leer el agente, qué datos puede incluir en sus salidas y cómo maneja los datos personales. Esto es crítico para el cumplimiento de la Ley de IA de la UE y la residencia de datos.
Reglas de comportamiento
Las políticas de comportamiento restringen las decisiones que el agente puede tomar. Un agente de atención al cliente puede tener una política que le impida ofrecer descuentos superiores al 15 por ciento sin aprobación humana.
Versionado y testing de políticas
Las políticas como código viven en control de versiones junto al código del agente. Los cambios se revisan en pull requests. Las políticas se testean contra escenarios históricos antes de desplegarse.
# Test de política
tests:
- name: "Bloquea acceso a datos financieros"
action:
type: "data_access"
source: "financial_records"
expected: "blocked"
- name: "Permite búsqueda en base de conocimiento"
action:
type: "tool_call"
tool: "knowledge_search"
parameters:
query: "política de devoluciones"
expected: "allowed"
- name: "Bloquea salida con datos personales"
action:
type: "output"
content: "El DNI del cliente es 12345678A"
expected: "blocked"
Por dónde empezar
Paso 1: Identifica tus agentes de mayor riesgo. Los agentes que acceden a datos sensibles, toman decisiones que afectan a clientes o tienen acceso a herramientas de escritura son los primeros candidatos.
Paso 2: Define políticas mínimas. Comienza con reglas de acceso a datos, límites de costes y permisos de herramientas. No intentes cubrir todo en el primer día.
Paso 3: Implementa aplicación en línea. Configura un motor de políticas que evalúe las reglas antes de cada acción del agente.
Paso 4: Itera basándote en datos. Usa los registros de auditoría para identificar qué políticas necesitan ajuste. Refina las reglas basándote en el comportamiento real del agente.
Preguntas frecuentes
¿Qué es la política como código para agentes de IA?
Es la práctica de definir reglas de gobernanza en formato legible por máquinas que se aplican automáticamente durante la ejecución del agente. Las políticas se evalúan en línea, bloqueando acciones no autorizadas antes de que se ejecuten.
¿Por qué no basta con la monitorización post-hoc?
Los agentes de IA operan a velocidades donde el daño puede ser irreversible antes de que un humano revise la acción. La aplicación en línea bloquea las acciones prohibidas antes de que tengan efecto.
¿Cómo se versionan las políticas?
Las políticas viven en control de versiones junto al código del agente. Los cambios pasan por revisión de código y se testean contra escenarios históricos antes de desplegarse.