PyTorch Fundamentals
v2.11 — Ausgabe 2026. Ein umfassender Audiokurs zur Erstellung von Deep-Learning-Modellen mit PyTorch Version 2.11. Behandelt Tensors, Autograd, Neural Networks, Optimizers, DataLoaders und den PyTorch-Compiler.
Episoden
Die Kernidentität von PyTorch
4m 20sEntdecke den grundlegenden Zweck von PyTorch und was es von traditionellen Mathematik-Bibliotheken unterscheidet. Diese Episode erklärt die Rolle von Tensors, Autograd und GPU-Beschleunigung im modernen Deep Learning.
PyTorch Tensors verstehen
4m 09sTauche ein in Tensors, die grundlegende Datenstruktur von PyTorch. Lerne, wie sie Rohdaten mit Neural Networks verbinden und den Speicher nahtlos mit Numpy-Arrays teilen.
Tensor-Operationen und Speicher
4m 02sLerne, wie man Tensors effizient manipuliert. Diese Episode behandelt arithmetische Operationen, Konkatenation, Device-Transfers und die Speicherauswirkungen von In-Place-Operationen.
Die Magie von Autograd
3m 44sEntpacke den Motor, der Deep Learning in PyTorch möglich macht. Lerne, wie Autograd Operationen dynamisch verfolgt und komplexe Ableitungen automatisch berechnet.
Gradient Tracking steuern
4m 07sEntdecke, wie du das Gradient Tracking von PyTorch deaktivierst, um Speicher zu sparen und die Berechnung zu beschleunigen. Unerlässlich für die Ausführung von Inference und das Einfrieren von Modellparametern.
Datasets und Datenverarbeitung
4m 01sLerne, wie du deine Datenverarbeitung mithilfe der PyTorch Dataset-Klasse von deiner Modellarchitektur entkoppelst. Wir untersuchen Lazy Loading und benutzerdefinierte Dataset-Strukturen.
DataLoaders und Batching
3m 42sEntfessele die volle Geschwindigkeit deiner Hardware, indem du Datasets in DataLoaders verpackst. Lerne, wie du deine Datenströme in Batches aufteilst, mischst und mit Multiprocessing verarbeitest.
Daten-Transformationen
4m 34sEntdecke, wie du Rohdaten on-the-fly vorverarbeitest, bevor sie auf dein Neural Network treffen. Wir behandeln torchvision-Transforms wie ToTensor und benutzerdefinierte Lambda-Funktionen.
Netzwerke mit nn.Module entwerfen
4m 21sErkunde den strukturellen Bauplan jedes PyTorch Neural Networks. Lerne, wie du nn.Module als Unterklasse verwendest, Layer in der Initialisierung definierst und Daten im Forward Pass weiterleitest.
Linear Layers und Activations
4m 20sWirf einen Blick ins Innere des Neural Networks. Wir zerlegen das nn.Linear-Modul und erklären, warum nicht-lineare Activation-Funktionen wie ReLU mathematisch unerlässlich sind.
Der nn.Sequential Container
4m 08sOptimiere deinen PyTorch-Code mit dem nn.Sequential-Container. Lerne, wie du Layer sauber zusammensteckst und die Parameter deines Modells überprüfst.
Loss Functions verstehen
3m 26sBevor eine KI lernen kann, muss sie ihre Fehler messen. Wir tauchen in PyTorch Loss Functions ein und vergleichen CrossEntropyLoss für Klassifikation und MSELoss für Regression.
Optimizers und Gradient Descent
4m 01sErkunde, wie der Optimizer Modellgewichte aktualisiert, um Fehler zu reduzieren. Lerne den entscheidenden Drei-Schritte-Tanz aus zero_grad(), backward() und step().
Validation und Inference
4m 14sBewerte dein Modell objektiv. Lerne, wie du dein Netzwerk in den Evaluation-Modus versetzt, Gradienten einfrierst und präzise Vorhersagen für ungesehene Daten extrahierst.
Modelle speichern und laden
3m 35sVerliere nicht deinen hart erarbeiteten Fortschritt! Wir besprechen die sichersten Methoden, um deine Modellgewichte mit state_dict zu serialisieren und sie sicher wieder zu laden.
Geschwindigkeit maximieren mit torch.compile
3m 39sSchalte das entscheidende Feature von PyTorch 2.0 frei. Lerne, wie der torch.compile-Decorator deinen Python-Code in optimierte Kernels JIT-compiliert, um massive Geschwindigkeitssteigerungen zu erzielen.
Compiler und Graph Breaks
4m 20sTauche unter die Haube des PyTorch-Compilers. Wir untersuchen Graph Breaks, dynamischen Kontrollfluss und warum torch.compile dort erfolgreich ist, wo ältere Systeme versagt haben.