V
主页
[LLMs 实践] 04 PEFT/LoRA 源码分析
发布人
本期 code:https://github.com/chunhuizhang/personal_chatgpt/blob/main/tutorials/04_PEFT_lora.ipynb
打开封面
下载高清视频
观看高清视频
视频下载器
[LLMs 实践] 02 LoRA(Low Rank Adaption)基本原理与基本概念,fine-tune 大语言模型
[LLMs 实践] 03 LoRA fine-tune 大语言模型(peft、bloom 7b)
[矩阵分析] LoRA 矩阵分析基础之 SVD low rank approximation(低秩逼近)
[LLMs 实践] 20 llama2 源码分析 cache KV(keys、values cache)加速推理
[LLMs 实践] 01 llama、alpaca、vicuna 整体介绍及 llama 推理过程
[LLMs 实践] 221 llama2 源码分析 generate 的完整过程
[LLMs 实践] 17 llama2 源码分析(RMSNorm 与 SwiGLU)
[LLMs 实践] 07 fp16 与自动混合精度训练(amp)显著提升 batch size
[LLMs 实践] 06 LLaMA,Alpaca LoRA 7B 推理
[LLMs 实践] 18 llama2 源码分析 RoPE 相对位置编码的复数形式
[LLMs 实践] 21 llama2 源码分析 GQA:Grouped Query Attention
[LLMs 实践] 19 llama2 源码分析 RoPE apply_rotary_emb 从绝对位置编码到相对位置编码
[LLMs tuning] 03 llama3-8B instruct SFT on Financial RAG
【超易上手】SD最详细简单的LoRA训练方法,从炼丹到变现全面解析!
30分钟教会你使用Llama Factory微调一个专属自己的中文llama3
【高阶数据结构】布隆过滤器(Bloom Filter)误识别(false positive,伪阳)概率的计算
[LLM && AIGC] 04 深入理解 openai tokenizer 及 api 中的 logit_bias 与 logprobs
[LLMs 实践] 14 llama2 introduction 及 fine tune llama2(guanaco dataset)
【B站最详细FLUX模型教程】这绝对是最全面最详细的Flux使用说明书! Flux模型安装以及使用,AI生图的“新王”,凭什么震惊世界?
[LLMs tuning] 04 optimizer Trainer 优化细节(AdamW,grad clip、Grad Norm)等
[LLMs 实践] 11 gradient accumulation 显存优化 trick
谁是最人气的LLM微调工具?
[LLMs 实践] 13 gradient checkpointing 显存优化 trick
[LLMs 实践] 12 LLM SFT training (trl SFTTrainer、alpaca dataset)
[lora 番外] LoRA merge 与 SVD(矩阵奇异值分解)
[LLM && AIGC] 05 OpenAI 长文本(long text,超出 max_tokens)处理及 summary,划分 chunk 处理
[LLMs inference] quantization 量化整体介绍(bitsandbytes、GPTQ、GGUF、AWQ)
[损失函数设计] 为什么多分类问题损失函数用交叉熵损失,而不是 MSE
[LLMs tuning] 01 trl SFTTrainer 中的 formatting_func 与 DataCollatorForCompletion
【数字图像处理】HoG+SVM+NMS行人检测(pedestrian detection)(python-opencv)
5.2 flux训练lora(制作人物一致性短片)
[LLMs 实践] 08 LLM.int8 量化细节 (load_in_8bit)以及 bitsandbytes 库
[LLMs 实践] 10 预训练语料,mapping & streaming(load_dataset)
[AI 核心概念及计算] 优化 01 梯度下降(gradient descent)与梯度上升(gradient ascent)细节及可视化分析
【国内白嫖】10月30日最新ChatGPT4.0
[LLMs 实践] 15 llama2 源码初步(text completion & chat completion)
[LLMs tuning] 02 accelerate ddp 与 trl SFTTrainer
无可挑剔的一致性——阿里in-context-lora测试
[Python 机器学习] 深入理解 numpy(ndarray)的 axis(轴/维度)
[LLMs 实践] 09 BPE gpt2 tokenizer 与 train tokenizer