V
主页
什么是张量并行?张量并行的数学原理是什么?【分布式并行】系列第03篇
发布人
【分布式并行】系列第03篇:什么是张量并行?张量并行的数学原理是什么? 与数据并行在不同设备都有完整的计算图不同,模型并行是不同设备负责单个计算图不同部分的计算。将计算图中的层内的参数切分到不同设备,即层内并行,我们称之为张量模型并行。这次我们一起来分享张量并行从数学原理,到实际网络模型的MatMul、Embedding、MLP、Transformer和Loss是如何进行张量并行的吧!
打开封面
下载高清视频
观看高清视频
视频下载器
[pytorch distributed] 从 DDP、模型并行、流水线并行到 FSDP(NCCL,deepspeed 与 Accelerate)
答不上来9.9和9.11谁更大,大模型是真的不识数吗?
AI | 爱因斯坦吃苹果
张雪峰老师答不上来的弱智吧问题,大模型手表可以回答
PyTorch数据并行怎么实现?DP、DDP、FSDP数据并行原理?【分布式并行】系列第02篇
AI生成剧烈运动视频大翻车引起大佬热议 到底是什么原因造成的
动画理解Pytorch 大模型分布式训练技术 DP,DDP,DeepSpeed ZeRO技术
AI集群的软硬件通信:从硬件PCIE、NVLINK、RDMA原理到通信NCCL、MPI原理!【分布式集群】系列第03篇
为什么需要AI编译器?跟传统编译器啥关系吗?【AI编译器】系列第一篇
分布式并行策略基础介绍!【分布式并行】系列第01篇
2024世界人工智能大会 李彦宏说:“没有应用,光有一个基础模型,不管是开源还是闭源,一文不值!”
19大模型全栈-分布式训练02-数据并行-deepspeed zero1/2/3原理
分布式训练总结!【大模型与分布式训练】系列第07篇
Megatron-LM张量并行的行切分和列切分核心原理 #大模型 #分布式并行 #分布式训练
模型并行的流水线并行来啦!了解下GPipe和PipeDream?【分布式并行】系列第05篇
大模型是什么?大模型有什么用?训练大模型会遇到哪些挑战?【分布式算法】第01篇
AI编译器架构发展!三个阶段出现的AI编译器有啥区别?【AI编译器】系列第二篇
分布式训练、分布式集群的基础介绍!【分布式集群】第01篇
AI框架内容介绍:AI框架基础、AI框架之争、AI编程范式!【AI框架基础】系列第一篇
谷歌前董事长兼总裁施密特:中国的AI发展基本靠西方开源模型;开源模型免不了被坏人使用,因此必须限制开源模型 #Google #开源 #AI
Siri接入豆包Ai大模型!让你的Siri不再智障!
GCC和LLVM发家历史?两大开源编译器的爱恨情仇【AI编译器】系列第二篇
通过3D可视化GPT推理过程,直观理解大模型底层原理
混合并行?多维并行?有多维度混合在一起并行吗?【分布式并行】系列第06篇
AI芯片涉及哪些知识?【AI芯片】内容简介
算子融合了解下!AI编译器如何实现算子融合的?【AI编译器】系列之前端优化第03篇
为什么AI框架都用计算图?什么是计算图?到底计算图有什么用?【计算图】系列第二篇
亲自撸一个正向自动微分的AI框架!【自动微分】系列第五篇
从十亿到万亿规模SOTA大模型有哪些?BERT、GPT3、Switch算法来啦!【分布式算法】系列第03篇
李彦宏说不要卷模型要卷应用 我要给他点个赞
B站强推!这可能是唯一能将LLama大模型讲清楚的教程了,LLama系列复现-微调-预训练-应用实例解读,草履虫都能看懂!人工智能/多模态大模型
你居然?敢说昇腾310/910 SOC处理器架构!#昇腾 #AI芯片
ChatGPT狂飙:强化学习RLHF与PPO!【ChatGPT】原理第02篇
符号微分/数值微分/自动微分区别是什么?【自动微分】系列第二篇
大模型是怎么训起来的?分布式并行框架介绍 #大模型 #分布式并行 #训练
为什么大模型都用Transformer结构? #AIInfra #大模型 #Transformer
AI框架如何实现分布式训练?SISD和SIMT又是什么?【分布式集群】系列第05篇
2024世界人工智能大会,热闹的背后,是被孤立的冷冷清清
为什么AI训练使用GPU而不是CPU?【AI芯片】GPU原理02
AI框架如何实现动静统一?PyTorch和MindSpore动静统一做得如何了?【计算图】第六篇