V
主页
全栈大模型微调框架LLaMA Factory:从预训练到RLHF的高效实现
发布人
全栈大模型微调框架LLaMA Factory:从预训练到RLHF的高效实现 郑耀威,北京航空航天大学博士生 https://github.com/hiyouga/LLaMA-Factory 【NICE十期】
打开封面
下载高清视频
观看高清视频
视频下载器
【大模型微调】- 使用Llama Factory实现中文llama3微调
从0开始训练1.4b中文大模型的经验分享
【官方教程】ChatGLM-6B 微调:P-Tuning,LoRA,Full parameter
第十课:RLHF
LLM推理加速新范式!推测解码(Speculative Decoding)最新综述
【保姆级教程】使用ChatGLM3-6B+oneAPI+Fastgpt+LLaMA-Factory实现本地大模型微调+知识库+接口管理
从零开始训练大模型
吴恩达大模型系列教程:2024吴恩达LLM大模型教程,手把手带你实现大模型预训练和模型微调,中英字幕(附学习课件)
RLHF训练法从零复现,代码实战,大语言模型训练
从零开始手搓一个LLM(一)把参数缩减到足够单卡训练的NanoGPT
【0代码微调大模型】在阿里云上使用LLaMa-Factory
ChatGPT狂飙:强化学习RLHF与PPO!【ChatGPT】原理第02篇
今日NLP最火论文!Github标星过万!零代码大模型微调! LlamaFactory可以支持100多个大模型同时微调!
几百次大模型LoRA和QLoRA 微调实践的经验分享
llama-factory全流程:专为新手设计。
手把手教你如何使用LLaMA-Factory微调阿里千问 Qwen 大模型
10分钟打造你个人专属的语言大模型:LLaMA-Factory LLM Finetune
【实战】通义千问1.8B大模型微调,实现天气预报功能
Deita: 用高质量数据在微调中“四两拨千斤”
llama3自主构建中文训练集(dataset),中文写作模型数据集,fine-tuning,llama3微调训练
LLaMA-MoE:基于参数复用的混合专家模型构建方法探索
理解大模型训练的几个阶段 Pretraining,SFT,RLHF
2023吴恩达新课微调大模型Finetuning LLMs,斯坦福吴恩达 | Sharon Zhou教授联合出品,新手看完信手拈来,拿走不谢!(中英字幕)
【保姆级教程】6小时掌握开源大模型本地部署到微调,从硬件指南到ChatGLM3-6B模型部署微调实战|逐帧详解|直达技术底层
【0代码微调大模型】免费白嫖Google的显卡
部署微调ChatGlm3-6B大模型【小白0到1】
PPO@RLHF ChatGPT原理解析
本地微调Llama3开源大模型!用自己的知识库打造自己的专属大模型!老旧显卡也能跑得动大模型微调!
Windows下中文微调Llama3,单卡8G显存只需5分钟,可接入GPT4All、Ollama实现CPU推理聊天,附一键训练脚本。
如何知道一个大模型在推理和训练时需要多少显存?
llama-factory-train
Llama3中文增强模型微调和法律大模型微调
LLaMA-Factory lora微调chatglm3-6b P40显卡
图解llama架构 解读源码实现
【官方教程】ChatGLM3-6B 部署和微调(Function Call、Code Interpreter、Agent)
SFT和RLHF的区别是什么?
LLMLingua: 压缩prompt构造LLMs的语言
AntSK保姆级教程4-llamafactory使用教程
llama3-06 基于llama-factory和自定义数据集进行模型微调
qwen大模型地部署和微调法律大模型(只需5G内存)