PyTorch Fundamentals
v2.11 — Ediția 2026. Un curs audio cuprinzător despre construirea modelelor de deep learning folosind PyTorch versiunea 2.11. Acoperă Tensors, Autograd, Neural Networks, Optimizers, DataLoaders și compilatorul PyTorch.
Episoade
Identitatea de bază a PyTorch
3m 50sDescoperă scopul fundamental al PyTorch și ce îl diferențiază de bibliotecile matematice tradiționale. Acest episod explică rolul Tensors, Autograd și al accelerării GPU în deep learning-ul modern.
Înțelegerea PyTorch Tensors
4m 14sAprofundează Tensors, structura de date fundamentală a PyTorch. Învață cum fac legătura între datele brute și Neural Networks și cum partajează memoria fără probleme cu array-urile Numpy.
Operațiuni cu Tensors și memorie
3m 33sÎnvață cum să manipulezi Tensors eficient. Acest episod acoperă operațiunile aritmetice, concatenarea, transferurile între dispozitive și implicațiile asupra memoriei ale operațiunilor in-place.
Magia Autograd
3m 39sDescoperă motorul care face posibil deep learning-ul în PyTorch. Învață cum Autograd urmărește dinamic operațiunile și calculează automat derivate complexe.
Controlul urmăririi gradientului
4m 09sDescoperă cum să dezactivezi urmărirea gradientului în PyTorch pentru a economisi memorie și a accelera calculele. Esențial pentru rularea inferenței și înghețarea parametrilor modelului.
Datasets și manipularea datelor
4m 01sÎnvață cum să decuplezi procesarea datelor de arhitectura modelului folosind clasa Dataset din PyTorch. Explorăm lazy loading și structurile personalizate de dataset-uri.
DataLoaders și batching
3m 41sEliberează întreaga viteză a hardware-ului tău împachetând Datasets în DataLoaders. Învață cum să faci batching, shuffling și multiprocessing pe fluxurile tale de date.
Transformări de date
4m 07sDescoperă cum să preprocesezi datele brute din mers înainte ca acestea să ajungă în rețeaua ta neuronală. Acoperim transformările torchvision precum ToTensor și funcțiile Lambda personalizate.
Proiectarea rețelelor cu nn.Module
4m 01sExplorează planul structural al fiecărei rețele neuronale PyTorch. Învață cum să creezi subclase pentru nn.Module, să definești straturile la inițializare și să direcționezi datele în forward pass.
Straturi Linear și activări
4m 02sPrivește în interiorul rețelei neuronale. Analizăm modulul nn.Linear și explicăm de ce funcțiile de activare neliniare precum ReLU sunt esențiale din punct de vedere matematic.
Containerul nn.Sequential
3m 27sEficientizează-ți codul PyTorch folosind containerul nn.Sequential. Învață cum să îmbini straturile curat și să inspectezi parametrii modelului tău.
Înțelegerea funcțiilor Loss
3m 39sÎnainte ca un AI să poată învăța, trebuie să-și măsoare greșelile. Aprofundăm funcțiile loss din PyTorch, comparând CrossEntropyLoss pentru clasificare și MSELoss pentru regresie.
Optimizers și Gradient Descent
3m 47sExplorează modul în care optimizer-ul actualizează ponderile modelului pentru a reduce eroarea. Învață dansul crucial în trei pași: zero_grad(), backward() și step().
Validare și inferență
3m 53sEvaluează-ți modelul în mod obiectiv. Învață cum să-ți treci rețeaua în modul de evaluare, să îngheți gradienții și să extragi predicții precise pe date nevăzute.
Salvarea și încărcarea modelelor
3m 35sNu-ți pierde progresul obținut cu greu! Discutăm cele mai sigure modalități de a serializa ponderile modelului tău folosind state_dict și de a le încărca înapoi în siguranță.
Accelerarea vitezei cu torch.compile
3m 18sDeblochează funcția definitorie a PyTorch 2.0. Învață cum decoratorul torch.compile face JIT-compiles codului tău Python în kernel-uri optimizate pentru accelerări masive.
Compilatoare și Graph Breaks
4m 01sPătrunde sub capota compilatorului PyTorch. Explorăm graph breaks, fluxul de control dinamic și de ce torch.compile reușește acolo unde sistemele vechi au eșuat.