V
主页
微调LLM中的魔鬼细节|大型语言模型lora调教指南
发布人
指令监督微调LLM训练前后效果对比,单轮、对轮对话数据构造,label mask, 模型准备,lora配置,训练流程。 完整代码:https://github.com/EvilPsyCHo/train_custom_LLM
打开封面
下载高清视频
观看高清视频
视频下载器
大模型微调实践数据准备/清洗、模型微调、模型评估 全链路案例演示
【李宏毅】2024年公认最好的【LLM大模型】教程!大模型入门到进阶,一套全解决!2024生成式人工智慧-附带课件代码
从零开始训练大模型
[LLMs 实践] 02 LoRA(Low Rank Adaption)基本原理与基本概念,fine-tune 大语言模型
PyTorch10天入门-09-模型微调
1. LLM 模型和理论基础
[全网最细lora模型训练教程]这时长?你没看错。还教不会的话,我只能说,师弟/妹,仙缘已了,你下山去吧!
LoRA_01_算法原理深入解析-上集
从零开始手搓一个LLM(一)把参数缩减到足够单卡训练的NanoGPT
Streaming-llm:多轮对话的救星来了,无需微调即可帮助大模型能够流畅地处理无限轮对话、无限上下文文本,有效的缓解多轮对话优先的遗忘问题
【保姆级教程】6小时掌握开源大模型本地部署到微调,从硬件指南到ChatGLM3-6B模型部署微调实战|逐帧详解|直达技术底层
LLM微调方法总结:Freeze方法/P-Tuning/LoRA及QLoRA
【基础05】使用lora后效果不好?全网最贴心的Lora新手使用技巧教程,stable diffusion新手福音,从此告别基础错误
鲨疯了!最适合新手入门的【LLM医疗大模型】教程:医疗大模型LLM应用现状及如何微调一个医疗大模型?我竟然一天就搞懂了!
Peft: 从Adaptor, Prefix Tuning, 到LoRA
LoRA_04_基于PEFT进行llama3模型微调实战
【还不会微调Llama3?】这绝对是B站最全的llama3教程!迪哥手把手带你Llama3微调-量化-部署-应用一条龙!草履虫都能打造自己的专属大模型!
几百次大模型LoRA和QLoRA 微调实践的经验分享
Qwen2-7B-微调-训练-评估
qwen大模型地部署和微调法律大模型(只需5G内存)
如何微调出属于自己大模型?——LORA原理解析
大模型微调数据构造(补充课程)
作者亲自讲解:LoRA 是什么?
低成本微调垂直领域专属 ChatGPT
【大模型微调】使用Llama Factory实现中文llama3微调
21世纪最重要的发明:LoRA,让每个人都能微调大语言模型!将会如何重写世界规则?(用笔记本就能做大模型)
【5分钟搞定】glm3微调教程没有负约!有点节目效果 ...
Llama2+QLora微调大模型-超详细教程(适合小白)
llama3自主构建中文训练集(dataset),中文写作模型数据集,fine-tuning,llama3微调训练
新一代ChatGLM2-6B 模型开箱|中文LLM要崛起了?
ChatGLM一站式微调整合包(基于lora)
如何使用langchain让chatglm等大语言模型拥有记忆?
【深度学习进阶】Pytorch Accelerate多GPU训练推理
【实战】通义千问1.8B大模型微调,实现天气预报功能
指令微调与常规微调的区别是什么?
LlamaFactory:微调QWe (千问)模型 简单微调多数模型的便捷方法
Windows下中文微调Llama3,单卡8G显存只需5分钟,可接入GPT4All、Ollama实现CPU推理聊天,附一键训练脚本。
【官方教程】ChatGLM-6B 微调:P-Tuning,LoRA,Full parameter
自己电脑部署大语言模型!ChatGLM2 + LoRA微调懒人包
大模型在垂直领域的微调技巧分享!北大博士精讲大模型训练流程及原理+微调容易踩的坑(人工智能\多模态\深度学习)