PyTorch Fundamentals
v2.11 — Édition 2026. Un cours audio complet sur la création de modèles de deep learning avec PyTorch version 2.11. Couvre les Tensors, Autograd, Neural Networks, Optimizers, DataLoaders et le compilateur PyTorch.
Épisodes
L'identité fondamentale de PyTorch
3m 30sDécouvrez l'objectif fondamental de PyTorch et ce qui le distingue des bibliothèques mathématiques traditionnelles. Cet épisode explique le rôle des Tensors, d'Autograd et de l'accélération GPU dans le deep learning moderne.
Comprendre les Tensors PyTorch
3m 47sPlongez dans les Tensors, la structure de données fondamentale de PyTorch. Découvrez comment ils font le lien entre les données brutes et les Neural Networks, et partagent la mémoire de manière transparente avec les tableaux Numpy.
Opérations sur les Tensors et mémoire
3m 24sApprenez à manipuler les Tensors efficacement. Cet épisode couvre les opérations arithmétiques, la concaténation, les transferts d'appareils et les implications sur la mémoire des opérations in-place.
La magie d'Autograd
3m 33sDécouvrez le moteur qui rend le deep learning possible dans PyTorch. Apprenez comment Autograd suit dynamiquement les opérations et calcule automatiquement les dérivées complexes.
Contrôler le suivi des gradients
3m 36sDécouvrez comment désactiver le suivi des gradients de PyTorch pour économiser de la mémoire et accélérer les calculs. Essentiel pour exécuter l'inférence et geler les paramètres du modèle.
Datasets et gestion des données
3m 11sApprenez à séparer le traitement de vos données de l'architecture de votre modèle en utilisant la classe Dataset de PyTorch. Nous explorons le chargement paresseux (lazy loading) et les structures de Datasets personnalisés.
DataLoaders et batching
3m 22sLibérez toute la vitesse de votre matériel en enveloppant vos Datasets dans des DataLoaders. Apprenez à regrouper en lots, mélanger et traiter en multiprocessus vos flux de données.
Transformations de données
3m 45sDécouvrez comment prétraiter les données brutes à la volée avant qu'elles n'atteignent votre Neural Network. Nous couvrons les Transforms de torchvision comme ToTensor et les fonctions Lambda personnalisées.
Concevoir des réseaux avec nn.Module
3m 59sExplorez le plan structurel de chaque Neural Network PyTorch. Apprenez à créer une sous-classe de nn.Module, à définir les couches lors de l'initialisation et à acheminer les données dans la forward pass.
Couches Linear et activations
4m 23sRegardez à l'intérieur du Neural Network. Nous analysons le module nn.Linear et expliquons pourquoi les fonctions d'activation non linéaires comme ReLU sont mathématiquement essentielles.
Le conteneur nn.Sequential
3m 21sSimplifiez votre code PyTorch en utilisant le conteneur nn.Sequential. Apprenez à assembler proprement les couches et à inspecter les paramètres de votre modèle.
Comprendre les Loss Functions
3m 08sAvant qu'une IA puisse apprendre, elle doit mesurer ses erreurs. Nous explorons les Loss Functions de PyTorch, en comparant CrossEntropyLoss pour la classification et MSELoss pour la régression.
Optimizers et descente de gradient
3m 27sDécouvrez comment l'Optimizer met à jour les poids du modèle pour réduire l'erreur. Apprenez la danse cruciale en trois étapes : zero_grad(), backward() et step().
Validation et inférence
3m 09sÉvaluez votre modèle objectivement. Apprenez à passer votre réseau en mode évaluation, à geler les gradients et à extraire des prédictions précises sur des données inédites.
Sauvegarder et charger des modèles
3m 14sNe perdez pas vos progrès durement acquis ! Nous discutons des moyens les plus sûrs de sérialiser les poids de votre modèle en utilisant state_dict et de les recharger en toute sécurité.
Booster la vitesse avec torch.compile
2m 59sDébloquez la fonctionnalité phare de PyTorch 2.0. Apprenez comment le décorateur torch.compile JIT-compiles votre code Python en noyaux optimisés pour des gains de vitesse massifs.
Compilateurs et graph breaks
3m 24sPlongez sous le capot du compilateur PyTorch. Nous explorons les graph breaks, le flux de contrôle dynamique et pourquoi torch.compile réussit là où les anciens systèmes ont échoué.