PyTorch Fundamentals
v2.11 — Edición 2026. Un curso en audio exhaustivo sobre la creación de modelos de deep learning utilizando PyTorch versión 2.11. Cubre Tensors, Autograd, Neural Networks, Optimizers, DataLoaders y el compilador de PyTorch.
Episodios
La identidad central de PyTorch
4m 26sDescubre el propósito fundamental de PyTorch y qué lo diferencia de las bibliotecas matemáticas tradicionales. Este episodio explica el papel de los Tensors, Autograd y la aceleración por GPU en el deep learning moderno.
Entendiendo los Tensors de PyTorch
4m 35sSumérgete en los Tensors, la estructura de datos fundamental de PyTorch. Aprende cómo conectan los datos sin procesar con las Neural Networks y comparten memoria sin problemas con los arrays de Numpy.
Operaciones con Tensors y memoria
4m 11sAprende a manipular Tensors de forma eficiente. Este episodio cubre operaciones aritméticas, concatenación, transferencias entre dispositivos y las implicaciones de memoria de las operaciones in-place.
La magia de Autograd
4m 00sAnalizamos el motor que hace posible el deep learning en PyTorch. Aprende cómo Autograd rastrea operaciones dinámicamente y calcula derivadas complejas de forma automática.
Controlando el seguimiento de gradientes
3m 42sDescubre cómo desactivar el seguimiento de gradientes de PyTorch para ahorrar memoria y acelerar los cálculos. Esencial para ejecutar inferencias y congelar los parámetros del modelo.
Datasets y manejo de datos
3m 27sAprende a desacoplar el procesamiento de datos de la arquitectura de tu modelo utilizando la clase Dataset de PyTorch. Exploramos la carga diferida y las estructuras de datasets personalizados.
DataLoaders y procesamiento por lotes
4m 27sLibera toda la velocidad de tu hardware envolviendo los Datasets en DataLoaders. Aprende a agrupar en lotes, mezclar y multiprocesar tus flujos de datos.
Transformaciones de datos
4m 12sDescubre cómo preprocesar datos sin procesar sobre la marcha antes de que lleguen a tu Neural Network. Cubrimos los transforms de torchvision como ToTensor y funciones Lambda personalizadas.
Diseñando redes con nn.Module
4m 02sExplora el plano estructural de cada Neural Network de PyTorch. Aprende a crear subclases de nn.Module, definir capas en la inicialización y enrutar datos en el forward pass.
Capas Linear y activaciones
4m 43sEcha un vistazo al interior de la Neural Network. Desglosamos el módulo nn.Linear y explicamos por qué las funciones de activación no lineales como ReLU son matemáticamente esenciales.
El contenedor nn.Sequential
4m 03sOptimiza tu código de PyTorch usando el contenedor nn.Sequential. Aprende a encajar capas de forma limpia y a inspeccionar los parámetros de tu modelo.
Entendiendo las Loss Functions
3m 35sAntes de que una IA pueda aprender, debe medir sus errores. Nos sumergimos en las Loss Functions de PyTorch, comparando CrossEntropyLoss para clasificación y MSELoss para regresión.
Optimizers y descenso de gradiente
3m 50sExplora cómo el Optimizer actualiza los pesos del modelo para reducir el error. Aprende el crucial baile de tres pasos de zero_grad(), backward() y step().
Validación e inferencia
4m 05sEvalúa tu modelo objetivamente. Aprende a cambiar tu red al modo de evaluación, congelar gradientes y extraer predicciones precisas sobre datos no vistos.
Guardando y cargando modelos
3m 43s¡No pierdas el progreso que tanto te ha costado! Hablamos de las formas más seguras de serializar los pesos de tu modelo usando state_dict y volver a cargarlos de forma segura.
Acelerando la velocidad con torch.compile
3m 48sDesbloquea la característica definitoria de PyTorch 2.0. Aprende cómo el decorador torch.compile realiza una compilación JIT de tu código Python en kernels optimizados para lograr aceleraciones masivas.
Compiladores y graph breaks
3m 56sSumérgete bajo el capó del compilador de PyTorch. Exploramos los graph breaks, el flujo de control dinámico y por qué torch.compile triunfa donde los sistemas heredados fracasaron.