NVIDIA NeMo Guardrails
v0.21 — Édition 2026. Un cours audio technique sur la sécurisation des applications d'IA agentique avec NVIDIA NeMo Guardrails. Apprenez à implémenter la sécurité du contenu, le Topic Control, le masquage des PII et la prévention des jailbreaks. (v0.21 - 2026)
Épisodes
L'impératif des AI Guardrails : Les abstractions fondamentales
3m 48sDécouvrez pourquoi les APIs de LLMs bruts sont dangereuses en production et comment orchestrer la sécurité. Cet épisode présente le pipeline en cinq étapes de NeMo Guardrails.
Configuration et la machine à états Colang 2.0
3m 13sApprenez à séparer la logique de sécurité de la logique métier à l'aide de fichiers de configuration. Nous explorons Colang 2.0 et la manière dont il construit des flux de dialogue basés sur les événements.
Sécurité du contenu spécialisée avec Nemotron NIM
3m 48sDécouvrez comment décharger la modération sur des modèles spécialisés à grande vitesse. Nous abordons l'utilisation du modèle Nemotron Safety Guard 8B pour intercepter les prompts dangereux.
Faire respecter les limites du domaine avec le Topic Control
3m 33sÉvitez les désastres en relations publiques en gardant vos bots strictement sur le sujet. Apprenez à implémenter les Topic Control Input Rails pour bloquer les conversations non autorisées.
Détection et masquage dynamiques des PII
3m 58sProtégez les données sensibles des utilisateurs à travers les entrées, les sorties et les extractions. Cet épisode détaille le masquage dynamique des PII à l'aide des intégrations GLiNER et Presidio.
Détection de jailbreak via les heuristiques de perplexité
4m 08sDéfendez-vous contre les injections de prompts adversaires à l'aide d'heuristiques mathématiques. Apprenez comment le score de perplexité détecte les jailbreaks avant qu'ils n'atteignent le LLM.
Sécurisation des workflows agentiques avec les Execution Rails
3m 46sProtégez les outils qu'utilisent vos agents autonomes contre l'exploitation. Nous analysons les règles YARA et les Execution Rails pour bloquer les injections de code et SQL.
Ancrage du RAG : Hallucinations et vérification des faits
3m 34sAssurez-vous que vos applications RAG n'inventent pas de faits. Apprenez à configurer les output rails pour vérifier les réponses par rapport aux fragments de connaissances extraits.
Sécurité du contenu multimodal
3m 20sLes filtres textuels échouent lorsque les utilisateurs téléchargent des captures d'écran de prompts malveillants. Découvrez comment utiliser des modèles de Vision comme juges pour sécuriser les applications multimodales.
Modèles d'intégration pour l'entreprise
3m 34sMettez à l'échelle vos garde-fous à travers l'entreprise. Nous passons en revue l'intégration via le Python SDK, les LangChain Runnables et l'API Server autonome.