V
主页
大模型是怎么训起来的?分布式并行框架介绍 #大模型 #分布式并行 #训练
发布人
大模型是怎么训起来的?分布式并行框架介绍 #大模型 #分布式并行 #训练
打开封面
下载高清视频
观看高清视频
视频下载器
向量数据库介绍,Vector和Embedding关系 #大模型 #向量数据库
分布式并行框架DeepSpeed介绍 #大模型 #分布式并行 #训练
GPU硬件架构与CUDA如何对应?【AI芯片】GPU架构01
为什么大模型都用Transformer结构? #AIInfra #大模型 #Transformer
分布式训练框架Megatron-LM代码概览 #大模型 #分布式并行 #训练
大模型整体架构、大模型全流程介绍 #大模型 #AI系统
大模型的训练流程是什么?详解大模型预训练和微调间区别 #大模型 #微调
为什么需要集合通信?NCCL的架构是什么样? #大模型 #通信 #集合通信
DeepSpeed优化器并行ZeRO1/2/3原理 #大模型 #分布式并行 #训练
从KIMI 200万中文长序列看24年大模型发展趋势 #AIInfra #大模型 #KIMI
大模型为什么需要微调?有哪些微调方式?#大模型 #微调
Megatron-LM张量并行的行切分和列切分核心原理 #大模型 #分布式并行 #分布式训练
流水并行 PP 基本原理(1F1B、1F1B Interleaved原理) #大模型 #分布式并行 #分布式训练
大模型PTD并行后如何配置在GPU集群? #大模型 #分布式并行 #分布式训练
分布式训练和NVLink&NVSwitch关系【AI芯片】GPU详解04
谷歌世界模型Genie详细解读 #大模型 #世界模型 #SORA #Geine
流水并行 PP 基本原理(Gpipe原理) #大模型 #分布式并行 #分布式训练
RAG技术详解、向量数据库对大模型的作用 #大模型 #向量数据库
终于到了大模型集群互联,看昇腾Atlas 900集群细节!#大模型 #集合通信
端到端自动驾驶算法综述 #特斯拉 #自动驾驶 #端到端
Megatron-LM 张量并行 TP 代码剖析 #大模型 #分布式并行 #分布式训练
向量数据库的功能、特性、发展和基本原理 #大模型 #向量数据库
Megatron-LM 序列并行 SP 代码剖析 #大模型 #分布式并行 #分布式训练
全网最详细:OpenAI GPT-4o多模态大模型深度解读 #大模型 #OpenAI #GPT-4o
大模型训练需要多少GPU?大模型显存怎么算? #大模型 #AI系统
深入NVLink原理:内部结构与组网拓扑【AI芯片】GPU详解05
SORA如何引爆世界模型之争? #大模型 #世界模型 #SORA
NCCL/HCCL 的基础 MPI 通信介绍!#大模型 #集合通信 #MPI
集合通信的操作/原语/算子是什么? #大模型 #通信 #集合通信
向量数据库相似性搜索算法:ANN、IVF、HNSW #大模型 #向量数据库
int8/fp16/bf16/tf32在AI芯片中什么作用?【AI芯片】AI计算体系06
大模型推理需要多大的显存? #大模型 #AI系统 #推理 #显存
NVIDIA十代GPU架构回顾(从Turning图灵到Hopper赫柏)【AI芯片】GPU架构03
向量数据库核心:相似性搜索 #大模型 #向量数据库
PyTorch数据并行怎么实现?DP、DDP、FSDP数据并行原理?【分布式并行】系列第02篇
世界第一块AI训练芯片(Google TPUv2)的原理【AI芯片】TPU系列03
NVIDIA十代GPU架构回顾(从Fermi费米到Volta伏特)【AI芯片】GPU架构02
昇腾的达芬奇内核架构,终于有人说明白了!#昇腾 #AI芯片
为什么AI训练使用GPU而不是CPU?【AI芯片】GPU原理02
分布式PTD多维并行与GPU集群关系 #大模型 #分布式并行 #分布式训练