V
主页
[LLMs 实践] 04 PEFT/LoRA 源码分析
发布人
本期 code:https://github.com/chunhuizhang/personal_chatgpt/blob/main/tutorials/04_PEFT_lora.ipynb
打开封面
下载高清视频
观看高清视频
视频下载器
Peft: 从Adaptor, Prefix Tuning, 到LoRA
【最新】LoRA源码详解
什么是 Low Rank Adapatation (Lora)? Huggingface lora手把手入门实操
作者亲自讲解:LoRA 是什么?
【研1基本功 (真的很简单)LoRA 低秩微调】大模型微调基本方法1 —— bonus "Focal loss"
[矩阵分析] LoRA 矩阵分析基础之 SVD low rank approximation(低秩逼近)
[LLMs 实践] 02 LoRA(Low Rank Adaption)基本原理与基本概念,fine-tune 大语言模型
大语言模型微调技术揭秘-PEFT
【手把手带你实战HuggingFace Transformers-高效微调篇】参数高效微调与BitFit实战
大规模语言模型LLMs教程:Generative AI with LLMs (吴恩达&AWS团队)【已完结】
ChatGLM一站式微调整合包(基于lora)
【官方教程】ChatGLM-6B 微调:P-Tuning,LoRA,Full parameter
LoRA 大语言模型微调技术入门系列【论文】
【LORA模型】四两如何拨动千斤,让运算量爆减10000倍
PEFT LoRA 深入解析 - 在自己的GPU上调节自己的LLM
PEFT LoRA 深入解析(下)
【搬运】大语言模型应用学习/吴老师最新课程:第二周-P2-参数高效微调peft
[番外] float16 与 bf16 表示和计算细节
LoRA 大语言模型微调技术入门系列【编程进阶】- 使用PEFT库
[全网最细lora模型训练教程]这时长?你没看错。还教不会的话,我只能说,师弟/妹,仙缘已了,你下山去吧!
PEFT与LORA, 大模型高效调优, 快速上手实战
【AI论文精读】爆火的stable-diffusion微调方法lora论文逐段精读(上)
【手把手带你实战HuggingFace Transformers-入门篇】基础知识与环境安装
微调LLM中的魔鬼细节|大型语言模型lora调教指南
lora源码解读
【详解】LoRA, ControlNet等Stable Diffusion微调方法原理详解!
[LLMs 实践] 07 fp16 与自动混合精度训练(amp)显著提升 batch size
[LLMs 实践] 20 llama2 源码分析 cache KV(keys、values cache)加速推理
几百次大模型LoRA和QLoRA 微调实践的经验分享
【手把手带你实战HuggingFace Transformers-高效微调篇】PEFT 进阶操作
三分钟学会大模型PEFT的LORA算法 lora_rank, lora_alpha
[LLMs 实践] 18 llama2 源码分析 RoPE 相对位置编码的复数形式
3. PEFT 大模型高效微调
[LLMs 实践] 11 gradient accumulation 显存优化 trick
lora源码解读
【入门】大语言模型常用微调框架介绍|LoRA&Prefix-Tuning&Prompt-Tuning&P-Tuning v2&RLHF微调原理简介
案例实战-05-基于LLaMA和LoRA模型进行预训练
[LLMs 实践] 06 LLaMA,Alpaca LoRA 7B 推理
[LLMs 实践] 01 llama、alpaca、vicuna 整体介绍及 llama 推理过程
QLoRA一种高效的微调方法,和LoRA有啥不同?