V
主页
LLM微调(Finetune)技术概述 & LoRA解读
发布人
大语言模型(LLM)微调技术的简单概述,包括Adapter、P-Tuning、LST和Lora等,主要从梯度的角度对比了几种LLM高效微调技术;也对LoRA微调技术进行了相关的源码解析~
打开封面
下载高清视频
观看高清视频
视频下载器
作者亲自讲解:LoRA 是什么?
【研1基本功 (真的很简单)LoRA 低秩微调】大模型微调基本方法1 —— bonus "Focal loss"
几百次大模型LoRA和QLoRA 微调实践的经验分享
LLM微调方法总结:Freeze方法/P-Tuning/LoRA及QLoRA
LoRA是什么?| 5分钟讲清楚LoRA的工作原理
LoRA_01_算法原理深入解析-上集
Llama2+QLora微调大模型-超详细教程(适合小白)
LORA大模型微调算法原理解析
动画科普大模型微调技术总结:何谓Adapter/LoRA/各种Tuning/统一范式?
你知道什么是LoRa吗?一分钟带你了解
什么是 Low Rank Adapatation (Lora)? Huggingface lora手把手入门实操
【详解】LoRA, ControlNet等Stable Diffusion微调方法原理详解!
[参数高效微调系列1]LoRA的原理与简单实现
详细版LLaVA模型训练—Pretrain和Finetune
【保姆级教程】6小时掌握开源大模型本地部署到微调,从硬件指南到ChatGLM3-6B模型部署微调实战|逐帧详解|直达技术底层
lora源码解读
[论文速览]LoRA: Low-Rank Adaptation of Large Language Models[2106.09685]
【45分钟系统学习】ChatGPT Prompt提示词工程 基础>少样本>思维链>联网>认知搜索>ReAct实现ChatGPT插件
从零开始训练大模型
【最新】LoRA源码详解
揭秘AI大模型行业黑话,窥探ChatGPT/星火/文心不在话下,迅速搞懂提示工程(prompt)、向量工程(embedding)、模型微调finetune)
【实战】通义千问1.8B大模型微调,实现天气预报功能
写CUDA和写好CUDA到底难在哪
提示词、RAG、微调哪个会让大模型表现更好?1、实践中如何选择微调、rag、提示词工程 2、提示词工程使用方式 3、RAG VS 微调 4、rag评估框架
LLM微调方法总结:Freeze方法/P-Tuning/LoRA及QLoRA
作者亲自讲解:LoRA 是什么? 看完醍醐灌顶!含配套文献及仓库
我大抵是难毕业了,效果巨烂。Yolov5+deepsort+1DCNN
【lora分层的底层原理】最新LoRA训练进阶教程9
吴恩达大模型【Langchain-ChatGLM】已开源!手把手带你实现:大模型预训练和模型微调,我1小时就学会了!
LoRA_04_基于PEFT进行llama3模型微调实战
[LLMs 实践] 02 LoRA(Low Rank Adaption)基本原理与基本概念,fine-tune 大语言模型
通俗易懂理解全量微调和LoRA微调
【中英字幕 | 完整版全集 | P02 Why FineTune】2023吴恩达新课微调大模型《Finetuning LLMs》
1. LLM 模型和理论基础
都发布一个月了【还不会微调Llama3吗】!迪哥十分钟带你微调-量化-部署-应用一条龙解读!草履虫都能学会!!!
Pytorch自定义后端算子实现:My Torch Extension
从零到一微调大语言模型ChatGLM,LLaMA
吹爆!2024最详细的大模型学习路线整理出来啦!迪哥手把手教你最高效的大模型学习方法,轻松搞定AIGC大模型!(大模型训练/大模型微调)
Peft: 从Adaptor, Prefix Tuning, 到LoRA
【AI论文精读】爆火的stable-diffusion微调方法lora论文逐段精读(上)