PyTorch Fundamentals
v2.11 — Edizione 2026. Un corso audio completo sulla creazione di modelli di deep learning utilizzando PyTorch versione 2.11. Copre Tensors, Autograd, Neural Networks, Optimizers, DataLoaders e il compilatore PyTorch.
Episodi
L'identità principale di PyTorch
3m 40sScopri lo scopo fondamentale di PyTorch e cosa lo distingue dalle tradizionali librerie matematiche. Questo episodio spiega il ruolo dei Tensors, di Autograd e dell'accelerazione GPU nel deep learning moderno.
Comprendere i Tensors di PyTorch
4m 08sImmergiti nei Tensors, la struttura dati fondamentale di PyTorch. Scopri come collegano i dati grezzi alle Neural Networks e condividono la memoria in modo fluido con gli array Numpy.
Operazioni sui Tensors e memoria
3m 43sImpara a manipolare i Tensors in modo efficiente. Questo episodio copre le operazioni aritmetiche, la concatenazione, i trasferimenti tra dispositivi e le implicazioni di memoria delle operazioni in-place.
La magia di Autograd
3m 45sScopri il motore che rende possibile il deep learning in PyTorch. Impara come Autograd traccia dinamicamente le operazioni e calcola automaticamente derivate complesse.
Controllare il tracciamento dei gradienti
3m 59sScopri come disabilitare il tracciamento dei gradienti di PyTorch per risparmiare memoria e velocizzare i calcoli. Essenziale per eseguire l'inferenza e congelare i parametri del modello.
Datasets e gestione dei dati
3m 41sImpara a separare l'elaborazione dei dati dall'architettura del modello utilizzando la classe Dataset di PyTorch. Esploriamo il lazy loading e le strutture di dataset personalizzate.
DataLoaders e Batching
3m 54sSprigiona tutta la velocità del tuo hardware avvolgendo i Datasets nei DataLoaders. Impara a eseguire il batching, lo shuffling e il multiprocessing dei tuoi flussi di dati.
Trasformazioni dei dati
3m 58sScopri come pre-elaborare i dati grezzi al volo prima che raggiungano la tua Neural Network. Trattiamo i transforms di torchvision come ToTensor e le funzioni Lambda personalizzate.
Progettare reti con nn.Module
4m 07sEsplora lo schema strutturale di ogni Neural Network in PyTorch. Impara a creare sottoclassi di nn.Module, definire i layer nell'inizializzazione e instradare i dati nel forward pass.
Layer Linear e attivazioni
4m 10sGuarda all'interno della Neural Network. Analizziamo il modulo nn.Linear e spieghiamo perché le funzioni di attivazione non lineari come ReLU sono matematicamente essenziali.
Il contenitore nn.Sequential
3m 38sSemplifica il tuo codice PyTorch usando il contenitore nn.Sequential. Impara a incastrare i layer in modo pulito e a ispezionare i parametri del tuo modello.
Comprendere le Loss Functions
3m 32sPrima che un'AI possa imparare, deve misurare i propri errori. Ci immergiamo nelle Loss Functions di PyTorch, confrontando CrossEntropyLoss per la classificazione e MSELoss per la regressione.
Optimizers e Gradient Descent
3m 36sEsplora come l'Optimizer aggiorna i pesi del modello per ridurre l'errore. Impara la fondamentale danza in tre passaggi di zero_grad(), backward() e step().
Validazione e inferenza
3m 52sValuta il tuo modello in modo oggettivo. Impara a passare la tua rete in modalità di valutazione, congelare i gradienti ed estrarre previsioni accurate su dati mai visti.
Salvare e caricare i modelli
3m 27sNon perdere i progressi guadagnati a fatica! Discutiamo i modi più sicuri per serializzare i pesi del tuo modello usando state_dict e ricaricarli in modo sicuro.
Aumentare la velocità con torch.compile
3m 20sSblocca la funzionalità distintiva di PyTorch 2.0. Scopri come il decoratore torch.compile esegue la JIT-compilation del tuo codice Python in kernel ottimizzati per enormi incrementi di velocità.
Compilatori e Graph Breaks
4m 00sImmergiti sotto il cofano del compilatore PyTorch. Esploriamo i graph breaks, il flusso di controllo dinamico e perché torch.compile ha successo dove i sistemi legacy hanno fallito.