V
主页
[PyTorch] Dropout 基本原理(前向计算与自动求导)
发布人
本期 code:https://github.com/chunhuizhang/llm_aigc/blob/main/tutorials/nn_basics/torch_dropout.ipynb torch sigmoid 求导练习:https://www.bilibili.com/video/BV1rW4y1N7ZU/ torch softmax 求导练习:https://www.bilibili.com/video/BV1gW4y1K7Du/ torch 计算图:https://www.bilibili.com/video/BV1hv4y1B7pE/
打开封面
下载高清视频
观看高清视频
视频下载器
[pytorch] [求导练习] 03 计算图(computation graph)及链式法则(chain rule)反向传播过程
[pytorch] [求导练习] 01 sigmoid 函数自动求导练习(autograd,单变量,多变量 multivariables 形式)
[动手写神经网络] 可微才可学,深度学习框架自动微分计算图(DAG)
[pytorch distributed] deepspeed 基本概念、原理(os+g+p)
[pytorch] [求导练习] 06 计算图(computation graph)细节之 retain graph(multi output/backwar)
[pytorch 模型拓扑结构] 深入理解 nn.BCELoss 计算过程及 backward 及其与 CrossEntropyLoss 的区别与联系
[动手写神经网络] 01 认识 pytorch 中的 dataset、dataloader(mnist、fashionmnist、cifar10)
[概率 & 统计] KL 散度(KL div)forward vs. reverse
[diffusion] 生成模型基础 VAE 原理及实现
[pytorch] torch.nn.Bilinear 计算过程与 einsum(爱因斯坦求和约定)
[LLMs 实践] 02 LoRA(Low Rank Adaption)基本原理与基本概念,fine-tune 大语言模型
[pytorch 计算图] retain_graph 获取非叶子节点的 grad
[pytorch 强化学习] 10 从 Q Learning 到 DQN(experience replay 与 huber loss / smooth L1)
[pytorch] [求导练习] 05 计算图(computation graph)构建细节之 inplace operation(data与detach)
[pytorch 强化学习] 01 认识环境(environment,gym.Env)以及 CartPole-v0/v1 环境
[pytorch 强化学习] 11 逐行写代码实现 DQN(ReplayMemory,Transition,DQN as Q function)
[pytorch distributed] amp 原理,automatic mixed precision 自动混合精度
[pytorch 网络拓扑结构] 深入理解 nn.LayerNorm 的计算过程
[全栈深度学习] 01 docker 工具的基本使用及 nvidia cuda pytorch 镜像
[AI 核心概念及计算] 概率计算 01 pytorch 最大似然估计(MLE)伯努利分布的参数
[矩阵微分] 标量/矢量关于矢量/矩阵的矩阵微分,深度学习框架反向传播
[pytorch 番外] Tensorboard 与计算图初步(算子与 ATen)
[pytorch 模型拓扑结构] 深入理解 nn.CrossEntropyLoss 计算过程(nn.NLLLoss(nn.LogSoftmax))
[模型拓扑结构] pytorch 注册钩子函数(register_forward_hook)实现对各个层(layer)输入输出 shape 的查看
[pytorch distributed] torch 分布式基础(process group),点对点通信,集合通信
[概率 & 统计] kl div kl散度的计算及应用(pytorch)
[Python 机器学习] 深入理解 numpy(ndarray)的 axis(轴/维度)
[调包侠] 使用 PyTorch Swin Transformer 完成图像分类
【深度学习环境搭建】01 本机、GPU服务器端深度学习环境搭建(代码、数据共享)
[pytorch distributed] 01 nn.DataParallel 数据并行初步
[pytorch distributed] 从 DDP、模型并行、流水线并行到 FSDP(NCCL,deepspeed 与 Accelerate)
[模型拓扑接口] 经典 RNN 模型(一)模型参数及训练参数的介绍
超强动画演示!B站终于有人把Transformer讲明白了,一步一步深入浅出解释原理,真的通俗易懂!
[pytorch] 激活函数(梯度消失)sigmoid,clamp,relu(sparse representation,dying relu)
[动手写神经网络] pytorch 高维张量 Tensor 维度操作与处理,einops
[mcts] 01 mcts 基本概念基本原理(UCB)及两个示例
这也太全面了!堪称教学天花板的【pytorch】教程,复旦博士由浅入深系统讲解原理基础及多个项目实战,整整100讲!
[pytorch 模型拓扑结构] pytorch 矩阵乘法大全(torch.dot, mm, bmm, @, *, matmul)
[pytorch 强化学习] 03 动手写迷宫环境(maze env)状态及动作策略初步(及动画保存)
[LLMs 实践] 07 fp16 与自动混合精度训练(amp)显著提升 batch size