V
主页
大模型是怎么训起来的?分布式并行框架介绍 #大模型 #分布式并行 #训练
发布人
大模型是怎么训起来的?分布式并行框架介绍 #大模型 #分布式并行 #训练
打开封面
下载高清视频
观看高清视频
视频下载器
大模型的泡沫在逐渐破裂
AI芯片涉及哪些知识?【AI芯片】内容简介
大模型算法,看了n份简历后我的建议是
模型压缩架构和流程介绍!量化/剪枝/蒸馏/二值化4件套!【推理系统】模型压缩第01篇
字节万级GPU集群LLM训练
SORA如何引爆世界模型之争? #大模型 #世界模型 #SORA
什么是推理系统?推理有哪些应用?【推理系统】系列01篇
英伟达NVIDIA创业20年坎坷之路,差点公司都丢掉
终于搞清楚通信算法与网络拓扑啥关系了!#大模型 #集合通信 #NCCL
从CPU发展和组成看并行架构!【AI芯片】芯片基础01
双4090部署qwen72b大模型 每秒150tokens
ChatGPT狂飙:强化学习RLHF与PPO!【ChatGPT】原理第02篇
符号微分/数值微分/自动微分区别是什么?【自动微分】系列第二篇
向量数据库之相似度度量和过滤的方法 #大模型 #向量数据库
动画理解Pytorch 大模型分布式训练技术 DP,DDP,DeepSpeed ZeRO技术
全网最详细:OpenAI GPT-4o多模态大模型深度解读 #大模型 #OpenAI #GPT-4o
如何计算模型参数量?什么是FLOPS和MACC?【推理系统】模型小型化第01篇
分布式训练、分布式集群的基础介绍!【分布式集群】第01篇
壁仞BR100是全球最强算力?反正我不信【AI芯片】国产厂商
超强动画,一步一步深入浅出解释Transformer原理!
大模型之数据工程概述 #大模型 #数据工程 #AIInfra
NCCL/HCCL 的基础 MPI 通信介绍!#大模型 #集合通信 #MPI
大模型是什么?大模型有什么用?训练大模型会遇到哪些挑战?【分布式算法】第01篇
为什么需要AI编译器?跟传统编译器啥关系吗?【AI编译器】系列第一篇
【18】大模型推理vs.训练的相同与不同
Megatron-LM技术讲解
从谷歌最新大模型GEMMA看24年大模型发展趋势 #AIInfra #大模型 #Transformer
CUDA、SIMD、SIMT、DSA什么关系?好乱呀!#GPU #CUDA #英伟达 #SIMT
AI集群用什么服务器架构?Ring All Reduce算法跟物理网络啥关系?【分布式集群】系列第02篇
写CUDA和写好CUDA到底难在哪
谷歌世界模型Genie详细解读 #大模型 #世界模型 #SORA #Geine
关于AI芯片演进的8个思考 #GPU #CUDA #AI芯片 #英伟达 #SIMT
NVIDIA英伟达Tensor Core基本原理(上)【AI芯片】GPU架构04
LLAMA3.1 全球最大开源大模型 405B 详细解读!#大模型 #llama
PyTorch数据并行怎么实现?DP、DDP、FSDP数据并行原理?【分布式并行】系列第02篇
大模型的训练流程是什么?详解大模型预训练和微调间区别 #大模型 #微调
大模型遇到Agent智能体:简介 #大模型 #AI系统 #智能体
流水并行 PP 基本原理(1F1B、1F1B Interleaved原理) #大模型 #分布式并行 #分布式训练
AI芯片除硬件本身外,还要关注什么?【AI芯片】黄金十年
存算架构的思考 #大模型 #AI系统 #数据存储 #AI集群