V
主页
[LLMs 实践] 06 LLaMA,Alpaca LoRA 7B 推理
发布人
本期 code:https://github.com/chunhuizhang/personal_chatgpt/blob/main/tutorials/06_alpaca_llama_7b_lora.ipynb
打开封面
下载高清视频
观看高清视频
视频下载器
[LLMs 实践] 02 LoRA(Low Rank Adaption)基本原理与基本概念,fine-tune 大语言模型
[LLMs 实践] 01 llama、alpaca、vicuna 整体介绍及 llama 推理过程
[矩阵分析] LoRA 矩阵分析基础之 SVD low rank approximation(低秩逼近)
[LLMs 实践] 19 llama2 源码分析 RoPE apply_rotary_emb 从绝对位置编码到相对位置编码
[LLMs 实践] 03 LoRA fine-tune 大语言模型(peft、bloom 7b)
[LLMs 实践] 20 llama2 源码分析 cache KV(keys、values cache)加速推理
[LLMs 实践] 17 llama2 源码分析(RMSNorm 与 SwiGLU)
[LLMs 实践] 14 llama2 introduction 及 fine tune llama2(guanaco dataset)
[LLMs 实践] 13 gradient checkpointing 显存优化 trick
30分钟教会你使用Llama Factory微调一个专属自己的中文llama3
[LLMs 实践] 10 预训练语料,mapping & streaming(load_dataset)
[LLMs 实践] 18 llama2 源码分析 RoPE 相对位置编码的复数形式
[LLMs 实践] 221 llama2 源码分析 generate 的完整过程
[LLMs 实践] 07 fp16 与自动混合精度训练(amp)显著提升 batch size
[LLMs 实践] 04 PEFT/LoRA 源码分析
[lora 番外] LoRA merge 与 SVD(矩阵奇异值分解)
[LLM && AIGC] 06 OpenAI whisper 命令行及脚本的使用(生成视频的音频)
[pytorch optim] 优化器相关 AdaGrad(adaptive gradient) 与 RMSprop,自适应梯度
[personal chatgpt] Llama2 7B vs. Llama3 8B (词表、attention 及 mlp)
[LLMs tuning] 03 llama3-8B instruct SFT on Financial RAG
[LLMs 实践] 15 llama2 源码初步(text completion & chat completion)
[LLMs 实践] 11 gradient accumulation 显存优化 trick
[LLMs tuning] 01 trl SFTTrainer 中的 formatting_func 与 DataCollatorForCompletion
[pytorch distributed] 04 模型并行(model parallel)on ResNet50
[LLMs tuning] 02 accelerate ddp 与 trl SFTTrainer
[LLMs 实践] 21 llama2 源码分析 GQA:Grouped Query Attention
[bert、t5、gpt] 06 GPT2 整体介绍(tokenizer,model forward)
[LLMs tuning] 06 多轮对话 qlora SFT(Multi-turn Conversation)
[pytorch 网络拓扑结构] 深入理解 nn.LayerNorm 的计算过程
【数字图像处理】HoG+SVM+NMS行人检测(pedestrian detection)(python-opencv)
[QKV attention] kv-cache、decoder only vs. BERT, 单向注意力 vs. 双向注意力
[LLMs tuning] 05 StackLlama、SFT+DPO(代码组织、数据处理,pipeline)
[personal chatgpt] LLAMA 3 整体介绍(与 LLama 2 的不同?)
[LLMs 实践] 09 BPE gpt2 tokenizer 与 train tokenizer
[[bert、t5、gpt] 03 AttentionHead 与 MultiHeadAttention
[LLMs inference] hf transformers 中的 KV cache
[工具的使用] python jupyter 环境安装配置拓展(nbextension)(ExcecuteTime:执行时间,Table of Content)
[LLMs 实践] 12 LLM SFT training (trl SFTTrainer、alpaca dataset)
[pytorch distributed] 03 DDP 初步应用(Trainer,torchrun)
[bert、t5、gpt] 09 T5 整体介绍(t5-11b,T5ForConditionalGeneration)