NVIDIA NeMo Guardrails
v0.21 — 2026 Edition. Ein technischer Audiokurs zur Absicherung von agentic AI-Anwendungen mit NVIDIA NeMo Guardrails. Lerne die Implementierung von Content Safety, Topic Control, PII Masking und Jailbreak Prevention. (v0.21 - 2026)
Episoden
Der AI Guardrails-Imperativ: Core Abstractions
3m 58sErfahre, warum rohe LLM APIs in der Produktion gefährlich sind und wie man Sicherheit orchestriert. Diese Episode stellt die fünfstufige Pipeline von NeMo Guardrails vor.
Konfiguration und die Colang 2.0 State Machine
3m 48sLerne, wie man Sicherheitslogik von Geschäftslogik mithilfe von Konfigurationsdateien trennt. Wir erkunden Colang 2.0 und wie es ereignisgesteuerte Dialogabläufe aufbaut.
Spezialisierte Content Safety mit Nemotron NIM
4m 01sErfahre, wie man die Moderation auf spezialisierte Hochgeschwindigkeitsmodelle auslagert. Wir behandeln die Nutzung des Nemotron Safety Guard 8B-Modells zum Abfangen unsicherer Prompts.
Durchsetzung von Domänengrenzen mit Topic Control
3m 57sVerhindere PR-Desaster, indem du deine Bots strikt beim Thema hältst. Lerne, wie man Topic Control Input Rails implementiert, um unerlaubte Konversationen zu blockieren.
Dynamische PII Detection und Masking
4m 09sSchütze sensible Nutzerdaten über Inputs, Outputs und Retrievals hinweg. Diese Episode detailliert das dynamische PII Masking mithilfe von GLiNER- und Presidio-Integrationen.
Jailbreak Detection durch Perplexity Heuristics
4m 35sVerteidige dich gegen feindliche Prompt Injections mithilfe mathematischer Heuristiken. Lerne, wie Perplexity Scoring Jailbreaks abfängt, bevor sie das LLM erreichen.
Absicherung von Agentic Workflows mit Execution Rails
4m 18sSchütze die Tools, die deine autonomen Agenten nutzen, vor Ausbeutung. Wir analysieren YARA-Regeln und Execution Rails zum Blockieren von Code- und SQL-Injections.
Grounding RAG: Halluzinationen und Fact-Checking
3m 56sStelle sicher, dass deine RAG-Anwendungen keine Fakten erfinden. Lerne, wie man Output Rails konfiguriert, um Antworten anhand abgerufener Wissensbausteine zu verifizieren.
Multimodale Content Safety
3m 38sTextfilter versagen, wenn Nutzer Screenshots von bösartigen Prompts hochladen. Entdecke, wie man Vision-Modelle als Judges einsetzt, um multimodale Anwendungen abzusichern.
Enterprise Integration Patterns
3m 59sSkaliere deine Guardrails im gesamten Unternehmen. Wir betrachten die Integration über das Python SDK, LangChain Runnables und den Standalone API Server.