Ir al contenido
Volver a Tutoriales

Cómo Asegurar una App de IA Agéntica: Guardrails, Permisos de Herramientas y Logs de Auditoría

Avanzado · 1 hour 15 minutes · 3 min de lectura · Byte Smith ·

Antes de comenzar

  • Una arquitectura básica de web app o API
  • Acceso a un proveedor LLM o gateway de modelos
  • Un framework de llamada a herramientas o acciones en tu app
  • Un stack de logging como Pino, OpenTelemetry o un pipeline de logs compatible con SIEM
  • Familiaridad básica con TypeScript o Node.js

Lo que aprenderás

  • Mapear las capacidades reales y el radio de impacto de una app agéntica
  • Definir límites de confianza entre entrada de usuario, memoria, herramientas y sistemas externos
  • Implementar permisos por herramienta, alcances de solo lectura versus escritura y gates de aprobación
  • Construir un flujo de ejecución seguro que valide intención y registre cada acción importante
  • Añadir logs de auditoría que vinculen uso de herramientas a usuarios, sesiones y decisiones de política
  • Hacer red-team a tu propio agente antes del lanzamiento a producción
1
En esta página

Las apps agénticas son más riesgosas que las apps de chat normales porque hacen más que generar texto. Una app de chat normal responde a un prompt. Una app agéntica puede leer memoria, llamar herramientas, consultar sistemas internos, enviar mensajes, actualizar registros y tomar acciones que afectan a personas o dinero. Eso cambia el modelo de amenazas de “mal output” a “malas decisiones, malas acciones o malas cadenas de acciones.”

Este tutorial muestra cómo asegurar una app de IA agéntica desde el inicio usando una implementación de referencia práctica en TypeScript. Construirás un registro de herramientas, etiquetarás límites de confianza, aplicarás permisos, requerirás aprobación humana para acciones riesgosas, registrarás cada decisión importante y añadirás tests de red-team. Al final, tendrás una línea base de seguridad que puedes aplicar ya sea que tu agente hable con herramientas MCP, APIs internas o function-calling nativo del proveedor.

Úsalo como un patrón arquitectónico, no como una receta de vendor lock-in. El proveedor del modelo puede cambiar. El flujo de ejecución seguro no debería.

El tutorial completo cubre mapear los poderes del agente, definir límites de confianza, añadir límites de permisos, defenderse contra riesgos comunes de agentes, construir un flujo de ejecución seguro, añadir auditabilidad, hacer red-team al agente y un checklist de lanzamiento a producción.

Advertencia

No dejes que “llamar herramientas” oculte el impacto de negocio. Una llamada sendTransactionalEmail no es solo una herramienta. Es una acción orientada al cliente con consecuencias legales, de confianza y operacionales.

Consejo

Un agente seguro no “confía en el prompt.” Etiqueta cada fuente de entrada y mantiene política, memoria, entrada de usuario y contenido recuperado separados a lo largo de toda la ruta de ejecución.

Advertencia

Nunca uses las mismas credenciales de herramienta en staging y producción si la acción tiene impacto en clientes o financiero. La separación de entornos no es opcional para apps agénticas.

Consejo

El lugar más seguro para detener un mal agente es antes de la llamada a la herramienta, no después. Las decisiones de política deberían ocurrir antes de la ejecución cada vez.

Advertencia

Los logs de auditoría son parte de tu superficie de exposición de datos. Si registras todo indiscriminadamente, puedes crear un segundo problema de seguridad mientras intentas resolver el primero.

Nota

Hacer red-team a una app agéntica no es solo sobre el prompt del modelo. Es sobre toda la cadena: ensamblaje de contexto, clasificación de riesgo, autorización, ejecución y logging.

Conclusión

Ahora tienes una línea base mínima de seguridad para una app de IA agéntica: un registro de herramientas, límites de confianza explícitos, permisos aplicados por código, gates de aprobación para acciones riesgosas, logs de auditoría estructurados, tests de rutas de abuso y un checklist de producción que ayuda a la app a fallar de forma segura en lugar de actuar imprudentemente.

La decisión de diseño más importante es simple: trata al modelo como un planificador, no como un superusuario. Una vez que tu arquitectura refleje eso, el resto de la historia de seguridad se vuelve mucho más fácil.

Si tu app de IA agéntica genera código en pipelines CI/CD, consulta también Asegurar Pipelines de Agentes de Codificación IA, que cubre cómo detectar PRs generados por IA, aplicar policy-as-code, ejecutar escaneos de seguridad, ejecutar tests en sandbox y controlar merges por nivel de riesgo.