V
主页
[pytorch] torch.nn.Bilinear 计算过程与 einsum(爱因斯坦求和约定)
发布人
本期 code:https://github.com/chunhuizhang/llm_aigc/blob/main/tutorials/nn_basics/einsum_bilinear.ipynb
打开封面
下载高清视频
观看高清视频
视频下载器
[pytorch] Tensor 轴(axis)交换,transpose(转置)、swapaxes、permute
[pytorch] torch.einsum 到索引到矩阵运算(index、shape、dimension、axis)
[pytorch 番外] Tensorboard 与计算图初步(算子与 ATen)
[pytorch 模型拓扑结构] 深入理解 nn.CrossEntropyLoss 计算过程(nn.NLLLoss(nn.LogSoftmax))
[pytorch 网络模型结构] 深入理解 nn.BatchNorm1d/2d 计算过程
[pytorch] [求导练习] 03 计算图(computation graph)及链式法则(chain rule)反向传播过程
[pytorch] Tensor shape 变化 view 与 reshape(contiguous 的理解)
[pytorch 网络拓扑结构] 深入理解 nn.LayerNorm 的计算过程
[动手写神经网络] pytorch 高维张量 Tensor 维度操作与处理,einops
[AI 核心概念及计算] 概率计算 01 pytorch 最大似然估计(MLE)伯努利分布的参数
[pytorch distributed] 01 nn.DataParallel 数据并行初步
[动手写神经网络] 可微才可学,深度学习框架自动微分计算图(DAG)
[pytorch] 深入理解 torch.gather 及 dim 与 index 的关系
[pytorch distributed] torch 分布式基础(process group),点对点通信,集合通信
[pytorch] [求导练习] 06 计算图(computation graph)细节之 retain graph(multi output/backwar)
[矩阵分析] 从向量范数到矩阵范数、torch spectral norm(矩阵的谱范数)
[pytorch 模型拓扑结构] 深入理解 nn.BCELoss 计算过程及 backward 及其与 CrossEntropyLoss 的区别与联系
[pytorch] nn.Embedding 前向查表索引过程与 one hot 关系及 max_norm 的作用
[pytorch] 多项式分布及采样(torch.multinomial, torch distribution Categorical)
[pytorch] 激活函数(梯度消失)sigmoid,clamp,relu(sparse representation,dying relu)
[pytorch] 深入理解 nn.KLDivLoss(kl 散度) 与 nn.CrossEntropyLoss(交叉熵)
cuda实现matmul的重新解读
[pytorch 模型拓扑结构] pytorch 矩阵乘法大全(torch.dot, mm, bmm, @, *, matmul)
[动手写神经网络] 01 认识 pytorch 中的 dataset、dataloader(mnist、fashionmnist、cifar10)
[pytorch] [求导练习] 04 前向计算与反向传播与梯度更新(forward,loss.backward(), optimizer.step)
[pytorch optim] 优化器相关 AdaGrad(adaptive gradient) 与 RMSprop,自适应梯度
[pytorch模型拓扑结构] nn.MultiheadAttention, init/forward, 及 query,key,value 的计算细节
[pytorch] F.binary_cross_entropy(二分类) 与 F.cross_entropy(多分类)
[pytorch 加速] CPU传输 & GPU计算的并行(pin_memory,non_blocking)
[概率 & 统计] kl div kl散度的计算及应用(pytorch)
【python 信号与系统】1维卷积实现滑动求和/滑动平均(moving sum,moving average)
[pytorch distributed] 05 张量并行(tensor parallel),分块矩阵的角度,作用在 FFN 以及 Attention 上
[pytorch 模型拓扑结构] 深入理解 nn.BatchNorm2d/3d
[PyTorch] Dropout 基本原理(前向计算与自动求导)
[pytorch 强化学习] 01 认识环境(environment,gym.Env)以及 CartPole-v0/v1 环境
[pytorch 强化学习] 10 从 Q Learning 到 DQN(experience replay 与 huber loss / smooth L1)
[pytorch] [求导练习] 05 计算图(computation graph)构建细节之 inplace operation(data与detach)
[调包侠] 使用 PyTorch Swin Transformer 完成图像分类
[pytorch 计算图] retain_graph 获取非叶子节点的 grad
[pytorch 网络模型结构] batchnorm train 及 eval 模式的差异及(running_mean, running_var)的计算细节