V
主页
83、如何计算GPT模型的FLOPs及参数量
发布人
大家好,本期视频从 GPT2 模型的结构出发,一步一步介绍如何用 python 代码计算一个 GPT 模型的参数数目和浮点操作数数目,最终回答了 llama 3.1 论文中的 scale 概念,并推导出了 llama 3.1 40B 模型在 15.6T tokens 上的预训练计算成本。
打开封面
下载高清视频
观看高清视频
视频下载器
19、Transformer模型Encoder原理精讲及其PyTorch逐行实现
73、爆火必看的nano-GPT2 Pytorch经典代码逐行讲解
54、Probabilistic Diffusion Model概率扩散模型理论与完整PyTorch代码详细解读
78、Llama源码讲解之Transformer
75、Llama源码讲解之RoPE旋转位置编码
85、Differential Transformer 论文原理逐段讲解
77、Llama源码讲解之GroupQueryAttention和KV-cache
62、Score Diffusion Model分数扩散模型理论与完整PyTorch代码详细解读
18、深入剖析PyTorch中的Transformer API源码
34、Swin Transformer论文精讲及其PyTorch逐行复现
xlstm+transformer时间序列预测代码
74、GPT-3论文原理讲解
手撕代码#1|为了128K context的attention map我真的是手撕到不行
28、Vision Transformer(ViT)模型原理及PyTorch逐行实现
20、Transformer模型Decoder原理精讲及其PyTorch逐行实现
14、保存与加载PyTorch训练的模型和超参数
12、如何在PyTorch中训练模型
64、扩散模型加速采样算法DDIM论文精讲与PyTorch源码逐行解读
81、LLaMA-1 论文导读
47、GAN原理讲解与PyTorch手写逐行讲解
21、Transformer Masked loss原理精讲及其PyTorch逐行实现
79、Llama源码讲解之自回归采样生成算法
Justin Bieber 教你从零开始编写多模态大模型 1
还是太全面了!NLP十天起飞,一口气学完文本分类、文本摘要、机器翻译、知识图谱、情感分析等十大技术点!算法原理+论文解读,草履虫都能学会!大模型|机器学习
46、四种Position Embedding的原理与PyTorch手写逐行实现(Transformer/ViT/Swin-T/MAE)
58、Improved Diffusion的PyTorch代码逐行深入讲解
[动手写神经网络] 手动实现 Transformer Encoder
超强动画演示!B站终于有人把Transformer讲明白了,一步一步深入浅出解释原理,真的通俗易懂!
59、基于CLIP/ViT模型搭建相似图像检索系统
80、Byte Pair Encoding 源码逐行讲解
4、PyTorch的Dataset与DataLoader详细使用教程
41、ResNet模型精讲以及PyTorch复现逐行讲解
84、GPT-4o/Moshi实时语音对话多模态算法讲解
Transformer真的不难啊!100集带你逐层分解Transformer模型——注意力机制、神经网络、位置编码、编码器、解码器等!算法原理+实战,通俗易懂!
【LLM前沿】6小时精讲四大多模态大模型CLIP BLIP VIT MLLM及对话机器人办公助手!绝对的通俗易懂的大模型应用教程!
38、ConvNeXt论文导读与模型精讲
33、完整讲解PyTorch多GPU分布式训练代码编写
【附源码】2024最新53个大模型实战项目!练完即就业Ⅰ基础到框架Ⅰ适合小白入门_LLM_RAG_Agent_ChatGPT_Prompt
30、PyTorch LSTM和LSTMP的原理及其手写复现
【200集还是太全面了】拒绝低效!一口气学完CNN、RNN、GAN、LSTM、GNN、DQN、Transformer、MLP、AE九大深度学习神经网络!纯干货!