NVIDIA NeMo Guardrails
Wersja 0.21 — Edycja 2026. Techniczny kurs audio na temat zabezpieczania aplikacji agentowych AI za pomocą NVIDIA NeMo Guardrails. Naucz się wdrażać bezpieczeństwo treści, kontrolę tematów, maskowanie PII oraz zapobieganie jailbreakom. (v0.21 - 2026)
Odcinki
Imperatyw AI Guardrails: Kluczowe abstrakcje
3m 54sOdkryj, dlaczego surowe API modeli LLM są niebezpieczne w środowisku produkcyjnym i jak zarządzać bezpieczeństwem. W tym odcinku przedstawiamy pięcioetapowy pipeline NeMo Guardrails.
Konfiguracja i maszyna stanów Colang 2.0
3m 47sDowiedz się, jak oddzielić logikę bezpieczeństwa od logiki biznesowej za pomocą plików konfiguracyjnych. Omawiamy Colang 2.0 i sposób, w jaki buduje on przepływy dialogowe oparte na zdarzeniach.
Wyspecjalizowane bezpieczeństwo treści z Nemotron NIM
3m 50sSprawdź, jak przenieść moderację na wyspecjalizowane, szybkie modele. Omawiamy wykorzystanie modelu Nemotron Safety Guard 8B do wychwytywania niebezpiecznych promptów.
Egzekwowanie granic domeny za pomocą Topic Control
3m 42sZapobiegaj katastrofom wizerunkowym, trzymając swoje boty ściśle w temacie. Dowiedz się, jak wdrożyć Topic Control Input Rails, aby blokować nieautoryzowane konwersacje.
Dynamiczne wykrywanie i maskowanie PII
4m 28sChroń wrażliwe dane użytkowników na wejściu, wyjściu i podczas wyszukiwania. Ten odcinek szczegółowo opisuje dynamiczne maskowanie PII z wykorzystaniem integracji GLiNER i Presidio.
Wykrywanie jailbreaków za pomocą heurystyki Perplexity
4m 07sBroń się przed wrogimi atakami prompt injection za pomocą matematycznych heurystyk. Dowiedz się, jak ocena perplexity wychwytuje jailbreaki, zanim dotrą do modelu LLM.
Zabezpieczanie przepływów agentowych za pomocą Execution Rails
4m 19sChroń narzędzia, z których korzystają twoi autonomiczni agenci, przed wykorzystaniem. Analizujemy reguły YARA i Execution Rails do blokowania wstrzykiwania kodu i SQL.
Ugruntowanie RAG: Halucynacje i weryfikacja faktów
4m 07sUpewnij się, że twoje aplikacje RAG nie wymyślają faktów. Dowiedz się, jak skonfigurować output rails, aby weryfikować odpowiedzi na podstawie pobranych fragmentów wiedzy.
Multimodalne bezpieczeństwo treści
3m 54sFiltry tekstowe zawodzą, gdy użytkownicy przesyłają zrzuty ekranu ze złośliwymi promptami. Odkryj, jak używać modeli Vision jako sędziów do zabezpieczania aplikacji multimodalnych.
Wzorce integracji korporacyjnej
3m 56sSkaluj swoje guardrails w całym przedsiębiorstwie. Omawiamy integrację za pośrednictwem Python SDK, LangChain Runnables oraz niezależnego API Server.