NVIDIA NeMo Guardrails
v0.21 — Edizione 2026. Un corso audio tecnico su come mettere in sicurezza le applicazioni di AI agentica con NVIDIA NeMo Guardrails. Impara a implementare la sicurezza dei contenuti, il Topic Control, il mascheramento delle PII e la prevenzione dei jailbreak. (v0.21 - 2026)
Episodi
L'imperativo degli AI Guardrails: astrazioni fondamentali
3m 41sScopri perché le API degli LLM grezzi sono pericolose in produzione e come orchestrare la sicurezza. Questo episodio introduce la pipeline a cinque fasi di NeMo Guardrails.
Configurazione e la macchina a stati di Colang 2.0
3m 45sImpara a separare la logica di sicurezza dalla logica di business utilizzando i file di configurazione. Esploriamo Colang 2.0 e come costruisce flussi di dialogo event-driven.
Sicurezza dei contenuti specializzata con Nemotron NIM
3m 59sEsplora come delegare la moderazione a modelli specializzati ad alta velocità. Trattiamo l'utilizzo del modello Nemotron Safety Guard 8B per intercettare prompt non sicuri.
Imporre i confini di dominio con il Topic Control
2m 41sPrevieni i disastri di PR mantenendo i tuoi bot strettamente in tema. Impara a implementare i Topic Control Input Rails per bloccare le conversazioni non autorizzate.
Rilevamento e mascheramento dinamico delle PII
4m 13sProteggi i dati sensibili degli utenti tra input, output e retrieval. Questo episodio illustra in dettaglio il mascheramento dinamico delle PII utilizzando le integrazioni GLiNER e Presidio.
Rilevamento dei jailbreak tramite euristiche di Perplexity
4m 10sDifenditi dalle prompt injection avversarie utilizzando euristiche matematiche. Impara come il perplexity scoring intercetta i jailbreak prima che raggiungano l'LLM.
Mettere in sicurezza i workflow agentici con gli Execution Rails
3m 48sProteggi gli strumenti utilizzati dai tuoi agenti autonomi dallo sfruttamento. Analizziamo le regole YARA e gli Execution Rails per bloccare le code injection e SQL injection.
Grounding nel RAG: allucinazioni e fact-checking
3m 59sAssicurati che le tue applicazioni RAG non inventino fatti. Impara a configurare gli output rails per verificare le risposte rispetto ai chunk di conoscenza recuperati.
Sicurezza dei contenuti multimodali
3m 33sI filtri testuali falliscono quando gli utenti caricano screenshot di prompt malevoli. Scopri come utilizzare i modelli Vision come giudici per mettere in sicurezza le applicazioni multimodali.
Pattern di integrazione Enterprise
3m 43sScala i tuoi guardrails in tutta l'azienda. Esaminiamo l'integrazione tramite il Python SDK, i LangChain Runnables e l'API Server standalone.