NVIDIA NeMo Guardrails
v0.21 — Edición 2026. Un curso técnico en audio sobre cómo asegurar aplicaciones de IA agéntica con NVIDIA NeMo Guardrails. Aprende a implementar seguridad de contenido, control de temas, enmascaramiento de PII y prevención de jailbreak. (v0.21 - 2026)
Episodios
El imperativo de los Guardrails de IA: Abstracciones principales
4m 04sDescubre por qué las APIs de LLM en bruto son peligrosas para producción y cómo orquestar la seguridad. Este episodio presenta el pipeline de cinco etapas de NeMo Guardrails.
Configuración y la máquina de estados de Colang 2.0
4m 23sAprende a separar la lógica de seguridad de la lógica de negocio utilizando archivos de configuración. Exploramos Colang 2.0 y cómo construye flujos de diálogo basados en eventos.
Seguridad de contenido especializada con Nemotron NIM
4m 03sExplora cómo delegar la moderación a modelos especializados de alta velocidad. Cubrimos el uso del modelo Nemotron Safety Guard 8B para detectar prompts inseguros.
Imposición de límites de dominio con Topic Control
3m 58sEvita desastres de relaciones públicas manteniendo a tus bots estrictamente en el tema. Aprende a implementar Topic Control Input Rails para bloquear conversaciones no autorizadas.
Detección y enmascaramiento dinámico de PII
4m 31sProtege los datos confidenciales de los usuarios en entradas, salidas y recuperaciones. Este episodio detalla el enmascaramiento dinámico de PII utilizando las integraciones de GLiNER y Presidio.
Detección de jailbreak mediante heurísticas de perplejidad
4m 19sDefiéndete de las inyecciones de prompts adversarias utilizando heurísticas matemáticas. Aprende cómo la puntuación de perplejidad detecta los jailbreaks antes de que lleguen al LLM.
Protección de flujos de trabajo agénticos con Execution Rails
4m 03sProtege de la explotación las herramientas que utilizan tus agentes autónomos. Desglosamos las reglas YARA y los Execution Rails para bloquear inyecciones de código y SQL.
Fundamentación de RAG: Alucinaciones y verificación de hechos
4m 17sAsegúrate de que tus aplicaciones RAG no inventen hechos. Aprende a configurar output rails para verificar las respuestas frente a los fragmentos de conocimiento recuperados.
Seguridad de contenido multimodal
4m 09sLos filtros de texto fallan cuando los usuarios suben capturas de pantalla de prompts maliciosos. Descubre cómo utilizar modelos de visión como jueces para asegurar aplicaciones multimodales.
Patrones de integración empresarial
3m 48sEscala tus guardrails en toda la empresa. Revisamos la integración a través del Python SDK, LangChain Runnables y el API Server independiente.