Ir al contenido
Volver a Tutoriales

Asegurar Pipelines de Agentes de Codificación IA: Configuración de Sandbox, Límites de Permisos y Gates de Revisión Automatizados

Intermedio · 1 hour · 3 min de lectura · Byte Smith · · Actualizado 14 de marzo de 2026

Antes de comenzar

  • Conocimientos básicos de GitHub Actions (crear y editar archivos YAML de workflow)
  • Familiaridad con conceptos CI/CD (pipelines, jobs, steps)
  • Conocimientos básicos de Docker (construir imágenes, ejecutar contenedores)
  • Un repositorio de GitHub donde puedas habilitar Actions

Lo que aprenderás

  • Detectar pull requests generados por IA usando metadatos de commit y labels
  • Definir un archivo policy-as-code que controle qué pueden cambiar los agentes IA
  • Ejecutar escaneos de seguridad automatizados (secretos, dependencias, SAST) en cada PR generado por IA
  • Ejecutar tests en un sandbox Docker aislado antes del merge
  • Calcular una puntuación de riesgo y aplicar requisitos de revisión por niveles
  • Emitir eventos de auditoría estructurados para cumplimiento y respuesta a incidentes
1
En esta página

Este tutorial recorre la configuración del pipeline ai-code-gate, un workflow de GitHub Actions que detecta pull requests generados por IA, aplica policy-as-code, ejecuta escaneos de seguridad, ejecuta tests en un sandbox y controla merges por nivel de riesgo. Para la estrategia más amplia detrás de estos controles, consulta el artículo complementario: Securing AI Coding Agent Workflows.

El repositorio es modular: cada etapa del pipeline es una composite action independiente que puedes adoptar individualmente, y una biblioteca TypeScript compartida (src/) contiene el motor de políticas, la lógica de detección y la puntuación de riesgo que consumen las actions.

El tutorial completo cubre detección de PRs generados por IA, definición de archivos de política, verificaciones de política, escaneo de seguridad automatizado, ejecución de tests en sandbox, cálculo de riesgo y gates de revisión, y conexión del workflow con registro de auditoría.

Consejo

Claude Code añade un trailer Co-Authored-By: Claude a cada commit por defecto. Los PRs de GitHub Copilot agent vienen de cuentas bot dedicadas. Cursor y Aider típicamente incluyen identificadores de herramienta en mensajes de commit. Verificar las tres señales te da alta cobertura sin falsos negativos.

Advertencia

Bloquea archivos de configuración CI/CD por defecto. Un agente IA que puede modificar YAML de workflow puede potencialmente escalar sus propios permisos o deshabilitar los gates que estás construyendo aquí.

Advertencia

La detección de secretos es crítica porque una clave filtrada en un PR generado por IA puede ser explotada antes de que cualquier revisor humano abra el diff. Incluso un solo hallazgo de secreto establece scan_passed=false y contribuye fuertemente a la puntuación de riesgo.

Nota

La puntuación de riesgo es aditiva con topes por categoría. Un solo secreto filtrado (50 puntos) más tests fallidos (30 puntos) llega a 80, bien dentro del nivel HIGH. Esto asegura que cualquier combinación de hallazgos serios active el nivel de revisión más estricto.

Conclusión

Ahora tienes un pipeline completo de gobernanza de agentes de codificación IA con cinco composite actions modulares: detección de PRs generados por IA, aplicación de policy-as-code, escaneo de seguridad automatizado, ejecución de tests en sandbox y gates de revisión por niveles de riesgo con registro de auditoría estructurado.

El ai-code-gate en GitHub contiene todas las actions, módulos TypeScript compartidos, tests, políticas de ejemplo y el workflow completo. Para la estrategia más amplia y modelo de amenazas detrás de estos controles, consulta el artículo complementario: Securing AI Coding Agent Workflows.

Obtén el Checklist gratuito de Gobernanza de Código IA →

Tutoriales relacionados que extienden este trabajo:

La gobernanza es la capa faltante entre la adopción de herramientas de codificación IA y la preparación empresarial. Los equipos que envían código generado por IA sin detección, aplicación de políticas, escaneo de seguridad, testing en sandbox y revisión basada en riesgo están aceptando riesgo no cuantificado. El pipeline que construiste aquí hace ese riesgo visible, medible y aplicable.