V
主页
[pytorch distributed] nccl 集合通信(collective communication)
发布人
本期 code: https://github.com/chunhuizhang/pytorch_distribute_tutorials/blob/main/tutorials/torch_nccl_collective_communication.ipynb https://github.com/chunhuizhang/pytorch_distribute_tutorials/blob/main/tutorials/torch_nccl_test.py 单机多卡硬件环境:https://www.bilibili.com/video/BV1A54y1F7kN/
打开封面
下载高清视频
观看高清视频
视频下载器
[pytorch distributed] torch 分布式基础(process group),点对点通信,集合通信
[pytorch optim] Adam 与 AdamW,L2 reg 与 weight decay,deepseed
[pytorch distributed] 张量并行与 megtron-lm 及 accelerate 配置
[pytorch distributed] accelerate 基本用法(config,launch)数据并行
[pytorch distributed] 01 nn.DataParallel 数据并行初步
[pytorch distributed] deepspeed 基本概念、原理(os+g+p)
[pytorch distributed] 从 DDP、模型并行、流水线并行到 FSDP(NCCL,deepspeed 与 Accelerate)
[动手写神经网络] 01 认识 pytorch 中的 dataset、dataloader(mnist、fashionmnist、cifar10)
[pytorch distributed] 04 模型并行(model parallel)on ResNet50
[pytorch 强化学习] 10 从 Q Learning 到 DQN(experience replay 与 huber loss / smooth L1)
[pytorch distributed] 05 张量并行(tensor parallel),分块矩阵的角度,作用在 FFN 以及 Attention 上
[pytorch] 深入理解 torch.gather 及 dim 与 index 的关系
[pytorch distributed] 03 DDP 初步应用(Trainer,torchrun)
[pytorch distributed] 02 DDP 基本概念(Ring AllReduce,node,world,rank,参数服务器)
[pytorch 强化学习] 01 认识环境(environment,gym.Env)以及 CartPole-v0/v1 环境
[pytorch] [求导练习] 06 计算图(computation graph)细节之 retain graph(multi output/backwar)
[pytorch distributed] amp 原理,automatic mixed precision 自动混合精度
[pytorch] Tensor 轴(axis)交换,transpose(转置)、swapaxes、permute
[pytorch 网络拓扑结构] 深入理解 nn.LayerNorm 的计算过程
【白板编程】map-reduce 倒排索引(inverted index)
[pytorch] 激活函数(梯度消失)sigmoid,clamp,relu(sparse representation,dying relu)
[pytorch] [求导练习] 01 sigmoid 函数自动求导练习(autograd,单变量,多变量 multivariables 形式)
[pytorch 番外] Tensorboard 与计算图初步(算子与 ATen)
[pytorch] [求导练习] 03 计算图(computation graph)及链式法则(chain rule)反向传播过程
[LLM && AIGC] 04 深入理解 openai tokenizer 及 api 中的 logit_bias 与 logprobs
[pytorch] [求导练习] 04 前向计算与反向传播与梯度更新(forward,loss.backward(), optimizer.step)
[调包侠] 使用 PyTorch Swin Transformer 完成图像分类
[概率 & 统计] KL 散度(KL div)forward vs. reverse
[pytorch] 深入理解 nn.KLDivLoss(kl 散度) 与 nn.CrossEntropyLoss(交叉熵)
[pytorch 强化学习] 11 逐行写代码实现 DQN(ReplayMemory,Transition,DQN as Q function)
[diffusion] 生成模型基础 VAE 原理及实现
[Python 机器学习] 深入理解 numpy(ndarray)的 axis(轴/维度)
[pytorch] torch.nn.Bilinear 计算过程与 einsum(爱因斯坦求和约定)
[pytorch 强化学习] 07 迷宫环境(maze environment)Q Learning(value iteration)求解(策略关闭 off)
【深度学习环境搭建】01 本机、GPU服务器端深度学习环境搭建(代码、数据共享)
[pytorch] torch.einsum 到索引到矩阵运算(index、shape、dimension、axis)
[LLMs inference] quantization 量化整体介绍(bitsandbytes、GPTQ、GGUF、AWQ)
【python 运筹优化】scipy.optimize.minimize 使用
[LLMs 实践] 02 LoRA(Low Rank Adaption)基本原理与基本概念,fine-tune 大语言模型
[pytorch 模型拓扑结构] 深入理解 nn.CrossEntropyLoss 计算过程(nn.NLLLoss(nn.LogSoftmax))