V
主页
[pytorch] [求导练习] 06 计算图(computation graph)细节之 retain graph(multi output/backwar)
发布人
本期code:https://github.com/chunhuizhang/bilibili_vlogs/blob/master/learn_torch/grad/06_retain_graph.ipynb 系列视频:https://space.bilibili.com/59807853/channel/collectiondetail?sid=446911 计算图:https://www.bilibili.com/video/BV1hv4y1B7pE/?spm_id_from=333.999.0.0
打开封面
下载高清视频
观看高清视频
视频下载器
[pytorch] [求导练习] 04 前向计算与反向传播与梯度更新(forward,loss.backward(), optimizer.step)
[pytorch] [求导练习] 03 计算图(computation graph)及链式法则(chain rule)反向传播过程
[pytorch] [求导练习] 05 计算图(computation graph)构建细节之 inplace operation(data与detach)
[PyTorch] Dropout 基本原理(前向计算与自动求导)
[概率 & 统计] kl div kl散度的计算及应用(pytorch)
[pytorch 强化学习] 06 迷宫环境(maze environment)SARSA(Q-table,value iteration)求解
[pytorch 模型拓扑结构] 深入理解 nn.BCELoss 计算过程及 backward 及其与 CrossEntropyLoss 的区别与联系
[pytorch 模型拓扑结构] 深入理解 nn.CrossEntropyLoss 计算过程(nn.NLLLoss(nn.LogSoftmax))
[动手写bert系列] BertSelfLayer 多头注意力机制(multi head attention)的分块矩阵实现
[AI 核心概念及计算] 优化 01 梯度下降(gradient descent)与梯度上升(gradient ascent)细节及可视化分析
[pytorch 网络拓扑结构] 深入理解 nn.LayerNorm 的计算过程
[动手写神经网络] 可微才可学,深度学习框架自动微分计算图(DAG)
[pytorch 强化学习] 10 从 Q Learning 到 DQN(experience replay 与 huber loss / smooth L1)
【搜索算法】【search】01 python-astar 图上搜索(graph search)f(n)=g(n)+h(n)
[pytorch模型拓扑结构] nn.MultiheadAttention, init/forward, 及 query,key,value 的计算细节
[pytorch 强化学习] 02 将 env rendering 保存为 mp4/gif(以 CartPole 为例,mode='rgb_array')
[pytorch] [求导练习] 02 softmax 函数自动求导练习(autograd,Jacobian matrix)
[pytorch 强化学习] 12 逐行写代码实现 DQN 完全体
[pytorch 网络模型结构] 深入理解 nn.BatchNorm1d/2d 计算过程
[pytorch] [求导练习] 01 sigmoid 函数自动求导练习(autograd,单变量,多变量 multivariables 形式)
[pytorch distributed] deepspeed 基本概念、原理(os+g+p)
[pytorch distributed] torch 分布式基础(process group),点对点通信,集合通信
[数值计算] 快速计算、秒算大数乘除运算,对数变换将乘除变为加减,再通过查表(logarithm table)获得10-99之间的对数值
[pytorch distributed] 04 模型并行(model parallel)on ResNet50
[pytorch] torch.einsum 到索引到矩阵运算(index、shape、dimension、axis)
[pytorch 网络模型结构] batchnorm train 及 eval 模式的差异及(running_mean, running_var)的计算细节
[pytorch] 多项式分布及采样(torch.multinomial, torch distribution Categorical)
[pytorch 计算图] retain_graph 获取非叶子节点的 grad
[pytorch] torch.nn.Bilinear 计算过程与 einsum(爱因斯坦求和约定)
[pytorch] Tensor 轴(axis)交换,transpose(转置)、swapaxes、permute
[pytorch 强化学习] 04 迷宫环境(maze environment)封装 MazeEnv、Agent 类
[LLMs tuning] 06 多轮对话 qlora SFT(Multi-turn Conversation)
[pytorch optim] 优化器相关 - learning rate scheduler
[pytorch distributed] 01 nn.DataParallel 数据并行初步
[LLM && AIGC] 04 深入理解 openai tokenizer 及 api 中的 logit_bias 与 logprobs
[pytorch] nn.Embedding 前向查表索引过程与 one hot 关系及 max_norm 的作用
[动手写神经网络] 06 自定义(kaggle)数据集(custom dataset)、Dataloader,及 train test valid 数据集拆分
[pytorch] 激活函数(梯度消失)sigmoid,clamp,relu(sparse representation,dying relu)
[pytorch 网络拓扑结构] 深度理解 nn.BatchNorm1d
[LangChain] 05 LangChain、LangGraph 结构化输出(Structured output),gpt-4o-2024-08-06