V
主页
PyTorch数据并行怎么实现?DP、DDP、FSDP数据并行原理?【分布式并行】系列第02篇
发布人
【分布式并行】系列第02篇:PyTorch数据并行怎么实现?DP、DDP、FSDP数据并行原理! 数据并行不仅仅指对训练的数据并行操作,而是对网络模型梯度、权重参数、优化器状态等数据进行并行。而PyTorch原生支持数据并行DP、分布式数据并行DDP、全切分数据并行FSDP 3种不同的数据并行操作,三种数据并行DP之间有什么不同呢?他们的核心原理又是什么呢?
打开封面
下载高清视频
观看高清视频
视频下载器
AI集群的软硬件通信:从硬件PCIE、NVLINK、RDMA原理到通信NCCL、MPI原理!【分布式集群】系列第03篇
【训练加速】DDP与DP的理解 组会seminar by ShangQing
分布式模型并行
[Long Review] Fully Sharded Data Parallel: faster AI training with fewer GPUs
深入GPU原理:线程和缓存关系【AI芯片】GPU原理01
编译器和解释器啥区别?AOT和JIT啥区别?Pass和IR又是什么?【AI编译器】系列01篇
Part 1_ Accelerate your training speed with the FSDP Transformer wrapper
AI编译器后端优化来啦!AI编译器后端架构!【AI编译器】后端优化01篇
Deepspeed大模型分布式框架精讲
分布式训练总结!【大模型与分布式训练】系列第07篇
AI集群机器间是怎么通信?通信原语是个什么玩意?【分布式集群】系列第04篇
什么是张量并行?张量并行的数学原理是什么?【分布式并行】系列第03篇
为什么需要AI编译器?跟传统编译器啥关系吗?【AI编译器】系列第一篇
特斯拉Tesla DOJO芯片架构【AI芯片】NPU详解01
分布式并行策略基础介绍!【分布式并行】系列第01篇
Cambricon PyTorch 的多卡分布式训练(DDP)
「分布式训练」原理讲解+ 「DDP 代码实现」修改要点
计算图有哪些内容知识?【计算图】系列第一篇
「分布式训练」DDP单机多卡并行代码讲解(含 multiprocessing & torchrun 两种启动方式)
[pytorch distributed] 02 DDP 基本概念(Ring AllReduce,node,world,rank,参数服务器)
深度学习里面有支持多GPU下DDP模式的pytorch训练代码模版吗
【14分钟】大模型技术之模型并行
大模型整体架构、大模型全流程介绍 #大模型 #AI系统
AI集群用什么服务器架构?Ring All Reduce算法跟物理网络啥关系?【分布式集群】系列第02篇
分布式训练、分布式集群的基础介绍!【分布式集群】第01篇
AI框架内容介绍:AI框架基础、AI框架之争、AI编程范式!【AI框架基础】系列第一篇
混合并行?多维并行?有多维度混合在一起并行吗?【分布式并行】系列第06篇
PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】
什么是推理系统?推理有哪些应用?【推理系统】系列01篇
[pytorch distributed] 01 nn.DataParallel 数据并行初步
从十亿到万亿规模SOTA大模型有哪些?BERT、GPT3、Switch算法来啦!【分布式算法】系列第03篇
[pytorch distributed] 04 模型并行(model parallel)on ResNet50
[pytorch distributed] 03 DDP 初步应用(Trainer,torchrun)
张量还能自动并行?MindSpore张量自动并行啥原理?【大模型与分布式训练】系列04篇
大模型是什么?大模型有什么用?训练大模型会遇到哪些挑战?【分布式算法】第01篇
大模型算法有哪种结构?怎么样才算大模型呢?从Transformer和MOE结构看大模型发展!【分布式算法】系列第02篇
pytorch分布式并行训练,深入浅出的讲解。
【7分钟】大模型技术之数据并行
pytorch多GPU并行训练教程
AI芯片涉及哪些知识?【AI芯片】内容简介