PyTorch Fundamentals
Wersja 2.11 — Edycja 2026. Kompleksowy kurs audio na temat budowania modeli deep learning przy użyciu PyTorch w wersji 2.11. Obejmuje Tensors, Autograd, Neural Networks, Optimizers, DataLoaders oraz kompilator PyTorch.
Odcinki
Istota PyTorch
3m 49sOdkryj podstawowy cel PyTorch i to, co odróżnia go od tradycyjnych bibliotek matematycznych. Ten odcinek wyjaśnia rolę Tensors, Autograd i akceleracji GPU w nowoczesnym deep learningu.
Zrozumienie Tensors w PyTorch
4m 10sZanurz się w Tensors, podstawową strukturę danych w PyTorch. Dowiedz się, jak łączą one surowe dane z Neural Networks i płynnie współdzielą pamięć z tablicami Numpy.
Operacje na Tensors i pamięć
3m 49sDowiedz się, jak wydajnie manipulować Tensors. Ten odcinek obejmuje operacje arytmetyczne, konkatenację, transfery między urządzeniami oraz wpływ operacji in-place na pamięć.
Magia Autograd
4m 00sPoznaj silnik, który umożliwia deep learning w PyTorch. Dowiedz się, jak Autograd dynamicznie śledzi operacje i automatycznie oblicza złożone pochodne.
Kontrolowanie śledzenia gradientów
3m 39sOdkryj, jak wyłączyć śledzenie gradientów w PyTorch, aby zaoszczędzić pamięć i przyspieszyć obliczenia. Jest to kluczowe przy uruchamianiu inferencji i zamrażaniu parametrów modelu.
Datasets i przetwarzanie danych
3m 53sDowiedz się, jak oddzielić przetwarzanie danych od architektury modelu za pomocą klasy Dataset w PyTorch. Omawiamy lazy loading i niestandardowe struktury zbiorów danych.
DataLoaders i batching
3m 39sUwolnij pełną prędkość swojego sprzętu, opakowując Datasets w DataLoaders. Dowiedz się, jak grupować w batche, tasować i wieloprocesowo przetwarzać strumienie danych.
Transformacje danych
4m 14sOdkryj, jak wstępnie przetwarzać surowe dane w locie, zanim trafią do Twojej Neural Network. Omawiamy transformacje z biblioteki torchvision, takie jak ToTensor, oraz niestandardowe funkcje Lambda.
Projektowanie sieci z nn.Module
3m 59sPoznaj strukturalny schemat każdej Neural Network w PyTorch. Dowiedz się, jak tworzyć podklasy nn.Module, definiować warstwy podczas inicjalizacji i kierować danymi w forward pass.
Warstwy Linear i aktywacje
3m 56sZajrzyj do wnętrza Neural Network. Rozkładamy na czynniki pierwsze moduł nn.Linear i wyjaśniamy, dlaczego nieliniowe funkcje aktywacji, takie jak ReLU, są matematycznie niezbędne.
Kontener nn.Sequential
3m 50sUsprawnij swój kod PyTorch za pomocą kontenera nn.Sequential. Dowiedz się, jak czysto łączyć ze sobą warstwy i badać parametry swojego modelu.
Zrozumienie Loss Functions
3m 53sZanim AI będzie mogło się uczyć, musi zmierzyć swoje błędy. Zagłębiamy się w Loss Functions w PyTorch, porównując CrossEntropyLoss dla klasyfikacji i MSELoss dla regresji.
Optimizers i spadek gradientu
3m 56sSprawdź, jak optimizer aktualizuje wagi modelu, aby zmniejszyć błąd. Poznaj kluczowy, trzyetapowy taniec funkcji zero_grad(), backward() i step().
Walidacja i inferencja
3m 35sOceniaj swój model obiektywnie. Dowiedz się, jak przełączyć sieć w tryb ewaluacji, zamrozić gradienty i uzyskać dokładne predykcje na niewidzianych wcześniej danych.
Zapisywanie i ładowanie modeli
3m 38sNie trać ciężko wypracowanych postępów! Omawiamy najbezpieczniejsze sposoby serializacji wag modelu za pomocą state_dict i ich bezpiecznego ponownego ładowania.
Zwiększanie prędkości z torch.compile
3m 49sOdblokuj kluczową funkcję PyTorch 2.0. Dowiedz się, jak dekorator torch.compile wykonuje JIT-compiles Twojego kodu Python do zoptymalizowanych kernels, zapewniając ogromne przyspieszenie.
Kompilatory i Graph Breaks
4m 15sZajrzyj pod maskę kompilatora PyTorch. Omawiamy Graph Breaks, dynamiczny przepływ sterowania i powody, dla których torch.compile odnosi sukces tam, gdzie starsze systemy zawiodły.