NVIDIA NeMo Guardrails
v0.21 — Ediția 2026. Un curs audio tehnic despre securizarea aplicațiilor AI agentice cu NVIDIA NeMo Guardrails. Învață să implementezi siguranța conținutului, Topic Control, mascarea PII și prevenirea jailbreak-urilor. (v0.21 - 2026)
Episoade
Imperativul AI Guardrails: Abstracții de bază
4m 19sDescoperiți de ce API-urile LLM brute sunt periculoase pentru producție și cum să orchestrați siguranța. Acest episod introduce pipeline-ul în cinci etape din NeMo Guardrails.
Configurarea și mașina de stări Colang 2.0
4m 05sÎnvățați cum să separați logica de siguranță de logica de business folosind fișiere de configurare. Explorăm Colang 2.0 și modul în care construiește fluxuri de dialog bazate pe evenimente.
Siguranța specializată a conținutului cu Nemotron NIM
4m 11sExplorați cum să transferați moderarea către modele specializate, de mare viteză. Acoperim utilizarea modelului Nemotron Safety Guard 8B pentru a detecta prompturile nesigure.
Impunerea limitelor de domeniu cu Topic Control
3m 37sPreveniți dezastrele de PR menținându-vă boții strict la subiect. Învățați cum să implementați Topic Control Input Rails pentru a bloca conversațiile neautorizate.
Detectarea și mascarea dinamică a PII
4m 28sProtejați datele sensibile ale utilizatorilor în inputuri, outputuri și extrageri. Acest episod detaliază mascarea dinamică a PII folosind integrările GLiNER și Presidio.
Detectarea jailbreak-urilor prin Perplexity Heuristics
4m 21sApărați-vă împotriva injecțiilor de prompturi adversariale folosind euristici matematice. Învățați cum scorul de perplexitate prinde jailbreak-urile înainte ca acestea să ajungă la LLM.
Securizarea fluxurilor de lucru agentice cu Execution Rails
4m 16sProtejați instrumentele pe care le folosesc agenții voștri autonomi împotriva exploatării. Analizăm regulile YARA și Execution Rails pentru blocarea injecțiilor de cod și SQL.
Ancorarea RAG: Halucinații și Fact-Checking
4m 05sAsigurați-vă că aplicațiile voastre RAG nu inventează fapte. Învățați cum să configurați output rails pentru a verifica răspunsurile în raport cu fragmentele de cunoștințe extrase.
Siguranța conținutului multimodal
4m 03sFiltrele de text eșuează atunci când utilizatorii încarcă capturi de ecran cu prompturi malițioase. Descoperiți cum să utilizați modelele Vision ca judecători pentru a securiza aplicațiile multimodale.
Modele de integrare Enterprise
3m 27sScalați-vă sistemele de protecție la nivelul întregii companii. Trecem în revistă integrarea prin Python SDK, LangChain Runnables și API Server-ul independent.