V
主页
分布式训练总结!【大模型与分布式训练】系列第十篇
发布人
【大模型与分布式训练】系列第十篇:分布式训练总结 分布式训练不只是只有数据并行、模型并行。实际上要训练大模型、要利用分布式训练能力,需要从AI集群开始了解,通过通信把机器跟机器之间建立网络拓扑关系。有了AI集群,而且还可以互相通信,研究大模型算法去咯!但是研究大模型算法,需要AI框架支持分布式系统功能。一切感觉都准备好啦,框架、算法、算力。嗯,可以训练起来啦!太慢了?训练介黑暗料理了解下,数据并行、模型并行、加速优化!都加进来!
打开封面
下载高清视频
观看高清视频
视频下载器
对话百度李彦宏(上):开源模型是智商税,AI Agent正在爆发【硅谷101】
[pytorch distributed] 从 DDP、模型并行、流水线并行到 FSDP(NCCL,deepspeed 与 Accelerate)
Qwen2只要开源就好了,程序员们要考虑的事情就很多了
2024年世界人工智能大会上,李彦宏再谈开源闭源之争:没有应用,基础模型将一文不值。
Claude 3.5击败GPT4o,地表最强大模型再次易主
分布式训练、分布式集群的基础介绍!【分布式集群】第01篇
001-【MIT】【6.824】【分布式系统】【中英字幕】【sp2020】【Introduction】
AI集群的软硬件通信:从硬件PCIE、NVLINK、RDMA原理到通信NCCL、MPI原理!【分布式集群】系列第03篇
我们生活的世界,会不会就是一个不断训练的大模型?
【OSDI'24】【闪电演讲】 Fast and Scalable In-network Lock Management Using Lock Fission
大模型是什么?大模型有什么用?训练大模型会遇到哪些挑战?【分布式算法】第01篇
动画理解Pytorch 大模型分布式训练技术 DP,DDP,DeepSpeed ZeRO技术
PyTorch数据并行怎么实现?DP、DDP、FSDP数据并行原理?【分布式并行】系列第02篇
int8/fp16/bf16/tf32在AI芯片中什么作用?【AI芯片】AI计算体系06
分布式并行策略基础介绍!【分布式并行】系列第01篇
什么是张量并行?张量并行的数学原理是什么?【分布式并行】系列第03篇
马斯克14万猫女机器人:模特身材,会家务能生娃,你会买吗?
向量数据库介绍,Vector和Embedding关系 #大模型 #向量数据库
推理引擎架构介绍!MNN、TF Lite、TensorRT介绍!【推理系统】系列05篇(上)
大突破,可灵大模型生成一分半钟人物视频,超级稳定。
今年这届有史以来最火爆的AI大会,属实有点抽象。带你看看今年WAIC大家都在整什么活
为什么需要AI编译器?跟传统编译器啥关系吗?【AI编译器】系列第一篇
GCC和LLVM发家历史?两大开源编译器的爱恨情仇【AI编译器】系列第二篇
大模型是怎么训起来的?分布式并行框架介绍 #大模型 #分布式并行 #训练
深入NVLink原理:内部结构与组网拓扑【AI芯片】GPU详解05
GCC编译过程!优缺点是啥?手把手用GCC编译一个小程序【AI编译器】系列第三篇
编译器和解释器啥区别?AOT和JIT啥区别?Pass和IR又是什么?【AI编译器】系列01篇
AI编译器架构发展!三个阶段出现的AI编译器有啥区别?【AI编译器】系列第二篇
模型压缩架构和流程介绍!量化/剪枝/蒸馏/二值化4件套!【推理系统】模型压缩第01篇
凯文·凯利最新预测:10年后AI训练数据将不再重要
模型并行的流水线并行来啦!了解下GPipe和PipeDream?【分布式并行】系列第05篇
CUDA跟SIMT的硬件架构什么关系?#GPU #CUDA #英伟达 #SIMT
想了解自动微分吗?自动微分内容介绍!【自动微分】系列第一篇!
为什么AI训练使用GPU而不是CPU?【AI芯片】GPU原理02
AI集群机器间是怎么通信?通信原语是个什么玩意?【分布式集群】系列第04篇
阿里大佬耗时6个月终于把AI大模型录成了完整的视频教程,通俗易懂,学完即可入职,挑战年薪百万!
Kernel优化架构介绍!【推理引擎】Kernel优化第01篇
AI框架内容介绍:AI框架基础、AI框架之争、AI编程范式!【AI框架基础】系列第一篇
CUDA、SIMD、SIMT、DSA什么关系?好乱呀!#GPU #CUDA #英伟达 #SIMT
LLVM IR详解!LLVM编译器的核心理念来啦!【AI编译器】系列第五篇(上)