V
主页
[LLMs 实践] 17 llama2 源码分析(RMSNorm 与 SwiGLU)
发布人
本期code:https://github.com/chunhuizhang/personal_chatgpt/blob/main/tutorials/llama2_src_02_RMSNorm_SwiGLU.ipynb layernorm:https://www.bilibili.com/video/BV1Fa411p7W3/
打开封面
下载高清视频
观看高清视频
视频下载器
[LLMs 实践] 20 llama2 源码分析 cache KV(keys、values cache)加速推理
[LLMs 实践] 04 PEFT/LoRA 源码分析
[personal chatgpt] LLAMA 3 整体介绍(与 LLama 2 的不同?)
[LLMs 实践] 21 llama2 源码分析 GQA:Grouped Query Attention
[LLMs 实践] 221 llama2 源码分析 generate 的完整过程
[LLMs 实践] 01 llama、alpaca、vicuna 整体介绍及 llama 推理过程
[LLMs 实践] 19 llama2 源码分析 RoPE apply_rotary_emb 从绝对位置编码到相对位置编码
[LLMs 实践] 02 LoRA(Low Rank Adaption)基本原理与基本概念,fine-tune 大语言模型
[LLMs 实践] 18 llama2 源码分析 RoPE 相对位置编码的复数形式
[pytorch] BN、LN、RMSNorm 及 pre LN vs. post LN 对比,标准化
[LLMs 实践] 08 LLM.int8 量化细节 (load_in_8bit)以及 bitsandbytes 库
[LLMs inference] quantization 量化整体介绍(bitsandbytes、GPTQ、GGUF、AWQ)
[LLMs 实践] 14 llama2 introduction 及 fine tune llama2(guanaco dataset)
[LLMs 实践] 07 fp16 与自动混合精度训练(amp)显著提升 batch size
[LLMs 实践] 15 llama2 源码初步(text completion & chat completion)
[LLMs 实践] 10 预训练语料,mapping & streaming(load_dataset)
[LLMs 实践] 12 LLM SFT training (trl SFTTrainer、alpaca dataset)
[LLMs 实践] 03 LoRA fine-tune 大语言模型(peft、bloom 7b)
[pytorch 网络拓扑结构] 深入理解 nn.LayerNorm 的计算过程
[Python 机器学习] 深入理解 numpy(ndarray)的 axis(轴/维度)
[LLMs 实践] 09 BPE gpt2 tokenizer 与 train tokenizer
[LLMs tuning] 04 optimizer Trainer 优化细节(AdamW,grad clip、Grad Norm)等
[bert、t5、gpt] 04 构建 TransformerEncoderLayer(FFN 与 Layer Norm、skip connection)
[LLM & AIGC] nvidia chat with rtx 初体验
[动手写神经网络] 05 使用预训练 resnet18 提升 cifar10 分类准确率及误分类图像可视化分析
[动手写神经网络] 手动实现 Transformer Encoder
[pytorch 强化学习] 10 从 Q Learning 到 DQN(experience replay 与 huber loss / smooth L1)
[LLMs 实践] 06 LLaMA,Alpaca LoRA 7B 推理
[LLMs 实践] 13 gradient checkpointing 显存优化 trick
[pytorch 强化学习] 01 认识环境(environment,gym.Env)以及 CartPole-v0/v1 环境
[LLMs tuning] 06 多轮对话 qlora SFT(Multi-turn Conversation)
[矩阵分析] LoRA 矩阵分析基础之 SVD low rank approximation(低秩逼近)
[RLHF] 从 PPO rlhf 到 DPO,公式推导与原理分析
[personal chatgpt] Llama2 7B vs. Llama3 8B (词表、attention 及 mlp)
[LLMs 实践] 11 gradient accumulation 显存优化 trick
[leetcode reviews] 01 计算思维与刷题方法
[数据可视化] 绘制交互式 3d plot(interactive 3d plot, Axes3d) z=f(x, y) (三维空间中的 surface)
[蒙特卡洛方法] 01 从黎曼和式积分(Reimann Sum)到蒙特卡洛估计(monte carlo estimation)求积分求期望
[动手写 Transformer] 手动实现 Transformer Decoder(交叉注意力,encoder-decoder cross attentio)
[动手写神经网络] 如何设计卷积核(conv kernel)实现降2采样,以及初探vggnet/resnet 卷积设计思路(不断降空间尺度,升channel)