V
主页
京东 11.11 红包
[pytorch] 多项式分布及采样(torch.multinomial, torch distribution Categorical)
发布人
本期 code:https://github.com/chunhuizhang/llm_aigc/blob/main/tutorials/nn_basics/multinomail_categorical.ipynb
打开封面
下载高清视频
观看高清视频
视频下载器
[pytorch] torch.einsum 到索引到矩阵运算(index、shape、dimension、axis)
【excel数据分析】幂律分布拟合城市GDP(幂律分布 vs. 指数分布 vs. 线性拟合 vs. 多项式拟合)
[pytorch 强化学习] 01 认识环境(environment,gym.Env)以及 CartPole-v0/v1 环境
【手推公式】指数族分布(exponential family distribution),伯努利分布及高斯分布的推导
[pytorch distributed] 01 nn.DataParallel 数据并行初步
[pytorch distributed] torch 分布式基础(process group),点对点通信,集合通信
[蒙特卡洛方法] 02 重要性采样(importance sampling)及 python 实现
[pytorch 模型拓扑结构] pytorch 矩阵乘法大全(torch.dot, mm, bmm, @, *, matmul)
[pytorch 强化学习] 02 将 env rendering 保存为 mp4/gif(以 CartPole 为例,mode='rgb_array')
[pytorch distributed] 张量并行与 megtron-lm 及 accelerate 配置
[pytorch] 深入理解 torch.gather 及 dim 与 index 的关系
[pytorch] 激活函数(梯度消失)sigmoid,clamp,relu(sparse representation,dying relu)
[pytorch 强化学习] 11 逐行写代码实现 DQN(ReplayMemory,Transition,DQN as Q function)
[pytorch] torch.nn.Bilinear 计算过程与 einsum(爱因斯坦求和约定)
[动手写神经网络] 01 认识 pytorch 中的 dataset、dataloader(mnist、fashionmnist、cifar10)
[generative models] 概率建模视角下的现代生成模型(生成式 vs. 判别式,采样与密度估计)
[pytorch distributed] deepspeed 基本概念、原理(os+g+p)
[pytorch 强化学习] 12 逐行写代码实现 DQN 完全体
[蒙特卡洛方法] 04 重要性采样补充,数学性质及 On-policy vs. Off-policy
[pytorch 强化学习] 07 迷宫环境(maze environment)Q Learning(value iteration)求解(策略关闭 off)
[pytorch] 深入理解 nn.KLDivLoss(kl 散度) 与 nn.CrossEntropyLoss(交叉熵)
[全栈深度学习] 01 docker 工具的基本使用及 nvidia cuda pytorch 镜像
【统计学】从置信水平(confidence level,置信区间)、Z值到最小采样数(最小抽样数)
[蒙特卡洛方法] 03 接受/拒绝采样(accept/reject samping)初步 cases 分析
[pytorch] nn.Embedding 前向查表索引过程与 one hot 关系及 max_norm 的作用
[pytorch 强化学习] 10 从 Q Learning 到 DQN(experience replay 与 huber loss / smooth L1)
[pytorch distributed] 04 模型并行(model parallel)on ResNet50
[调包侠] 使用 PyTorch Swin Transformer 完成图像分类
[pytorch 强化学习] 08 CartPole Q learning 连续状态离散化(digitize 分桶)及 display_frame_as_gif
[pytorch 强化学习] 03 动手写迷宫环境(maze env)状态及动作策略初步(及动画保存)
[AI 核心概念及计算] 概率计算 01 pytorch 最大似然估计(MLE)伯努利分布的参数
[pytorch] [求导练习] 04 前向计算与反向传播与梯度更新(forward,loss.backward(), optimizer.step)
[pytorch] [求导练习] 06 计算图(computation graph)细节之 retain graph(multi output/backwar)
[pytorch 强化学习] 09 (逐行写代码)CartPole Q learning 基于连续状态离散化(digitize 分桶)
[pytorch 模型拓扑结构] 深入理解 nn.BCELoss 计算过程及 backward 及其与 CrossEntropyLoss 的区别与联系
[pytorch 模型拓扑结构] 深入理解 nn.CrossEntropyLoss 计算过程(nn.NLLLoss(nn.LogSoftmax))
[Python 机器学习] 深入理解 numpy(ndarray)的 axis(轴/维度)
[动手写神经网络] 可微才可学,深度学习框架自动微分计算图(DAG)
[pytorch distributed] 05 张量并行(tensor parallel),分块矩阵的角度,作用在 FFN 以及 Attention 上
[pytorch distributed] 03 DDP 初步应用(Trainer,torchrun)