V
主页
[LLMs 实践] 221 llama2 源码分析 generate 的完整过程
发布人
本期 code:https://github.com/chunhuizhang/personal_chatgpt/blob/main/tutorials/llama2_src_generate.ipynb RMSNorm 与 SwiGLU:BV1e14y1C7G8 RoPE:BV18u411M7j1 cache KV:BV1FB4y1Z79y GQA:BV1vc411o7fa top_p/top_k:BV1Ho4y1x76q
打开封面
下载高清视频
观看高清视频
视频下载器
[LLMs 实践] 02 LoRA(Low Rank Adaption)基本原理与基本概念,fine-tune 大语言模型
[LLMs 实践] 20 llama2 源码分析 cache KV(keys、values cache)加速推理
[LLMs 实践] 18 llama2 源码分析 RoPE 相对位置编码的复数形式
[LLMs 实践] 19 llama2 源码分析 RoPE apply_rotary_emb 从绝对位置编码到相对位置编码
[LLMs 实践] 04 PEFT/LoRA 源码分析
[LLMs 实践] 01 llama、alpaca、vicuna 整体介绍及 llama 推理过程
[LLMs 实践] 21 llama2 源码分析 GQA:Grouped Query Attention
[LLMs 实践] 17 llama2 源码分析(RMSNorm 与 SwiGLU)
[LLMs 实践] 07 fp16 与自动混合精度训练(amp)显著提升 batch size
[LLMs 实践] 08 LLM.int8 量化细节 (load_in_8bit)以及 bitsandbytes 库
[Python 机器学习] 深入理解 numpy(ndarray)的 axis(轴/维度)
[LLMs 实践] 10 预训练语料,mapping & streaming(load_dataset)
[LLMs 实践] 09 BPE gpt2 tokenizer 与 train tokenizer
[LLMs 实践] 03 LoRA fine-tune 大语言模型(peft、bloom 7b)
[LLMs 实践] 15 llama2 源码初步(text completion & chat completion)
[LLMs 实践] 14 llama2 introduction 及 fine tune llama2(guanaco dataset)
[personal chatgpt] Llama2 7B vs. Llama3 8B (词表、attention 及 mlp)
[LLMs inference] quantization 量化整体介绍(bitsandbytes、GPTQ、GGUF、AWQ)
【深度学习环境搭建】01 本机、GPU服务器端深度学习环境搭建(代码、数据共享)
[LLMs 实践] 12 LLM SFT training (trl SFTTrainer、alpaca dataset)
[矩阵分析] LoRA 矩阵分析基础之 SVD low rank approximation(低秩逼近)
[personal chatgpt] 从 RoPE 到 CoPE(绝对位置编码,相对位置编码,Contextual Position Encoding)
[LLM & AIGC] nvidia chat with rtx 初体验
[LLMs tuning] 06 多轮对话 qlora SFT(Multi-turn Conversation)
[LLMs tuning] 02 accelerate ddp 与 trl SFTTrainer
[LLMs tuning] 04 optimizer Trainer 优化细节(AdamW,grad clip、Grad Norm)等
[AI硬件科普] 内存/显存带宽,从 NVIDIA 到苹果 M4
[LLMs 实践] 11 gradient accumulation 显存优化 trick
[gpt2 番外] training vs. inference(generate),PPL 计算,交叉熵损失与 ignore_index
Transformer 很 难 ? 50行代码手撸一个!(上)
[动手写神经网络] 05 使用预训练 resnet18 提升 cifar10 分类准确率及误分类图像可视化分析
[RLHF] 从 PPO rlhf 到 DPO,公式推导与原理分析
[pytorch] [求导练习] 04 前向计算与反向传播与梯度更新(forward,loss.backward(), optimizer.step)
[pytorch 模型拓扑结构] 深入理解 nn.CrossEntropyLoss 计算过程(nn.NLLLoss(nn.LogSoftmax))
[pytorch] [求导练习] 03 计算图(computation graph)及链式法则(chain rule)反向传播过程
[动手写神经网络] 01 认识 pytorch 中的 dataset、dataloader(mnist、fashionmnist、cifar10)
[LLMs 实践] 13 gradient checkpointing 显存优化 trick
[python nlp] 01 词频分析与 Zipf law 齐夫定律(log-log plot)
[LLMs tuning] 03 llama3-8B instruct SFT on Financial RAG
[LLMs tuning] 01 trl SFTTrainer 中的 formatting_func 与 DataCollatorForCompletion