V
主页
LlamaFactory:微调QWe (千问)模型 简单微调多数模型的便捷方法
发布人
这太棒了。 现在我们有了LlamaFactory。 简单而高效的LLM微调。 你将会有一个这样的界面,可以挑选多个模型,使用LoRa进行微调,选择要使用的数据集,最后就能开始训练。 这正是我们今天要看到的内容。 我们开始吧。 大家好。 我非常兴奋地要向大家展示Llama Factory。 它支持多种模型。 今天我们将训练QuenModel,它支持预训练、监督训练、奖励建模、PPO训练和DPO训练。 默认情况下,它会提供一系列数据集供你练习学习如何进行微调。 最后,我们可以登录HuggingFace,然后将模型上传到HuggingFace仓库。 接下来我会逐步带你完成这个过程。 但在那之前,我经常在我的YouTube频道上发布关于人工智能的视频。 所以请订阅并点击铃铛图标以获取更新。 務必點擊喜歡按鈕,這樣這個視頻就能對像你一樣的許多人有所幫助。 作为前提,我们需要两样东西。 一个是HuggingFace令牌。 接着是Weights and Biases令牌。 这仅是用于追踪我们的过程,可选操作。 首先,使用git克隆Llama Factory,然后点击进入。 然后,导航到Llama Factory文件夹。 现在,使用conda创建hyphen和Llama Factory Python版本为3.11,然后点击Enter。 现在,激活Llama Factory环境,然后按回车。 现在,使用pip安装hyphen或requirements.txt,然后按Enter键。 完成后,使用pip安装bits和bytes、transformers、stream generator以及HuggingFace库,然后点击enter。 现在,你可以使用HuggingFace的hyphen命令行界面(CLI)进行登录。 在这里你可以输入你的Hugging Face令牌。 完成后,点击Enter。 将token作为Git凭证添加。 是的。 并且它会自动保存。 接下来,我们将输入kuda可见设备等于零。 使用模式范围库等于一。 然后输入Python源文件/训练_网页.py,点击进入。 现在我们得到了URL,打开URL后这就是用户界面。 所以我会使用Quen 1.8b聊天模型。 这里我将使用的是Glaive工具调用的数据集。 如果你预览数据集,这就像是人类在提问,我们将训练Quen模型来识别是否需要调用函数。 如果需要调用函数,它会自动提及函数名称,然后将原价和折扣百分比发送给该函数。 然后函数会返回实际值。 然后,大型语言模型会处理请求并给出结果。 这就是我们要训练的内容。 你甚至可以根据下面提供的步骤添加自己的训练数据集。 接着,我们将选择 epoch(轮次)、最大样本数、批量大小、梯度累积量,最后是输出目录。 这个文件夹用于保存模型,最后会将其推送到Hugging Face。 如果你点击开始,它会自动启动。 但仅仅因为我使用的是Mac,这不会运行,因为FP16的原因我将向你展示。 这里显示失败。 如果你在终端中看到,会显示FP16失败。 所以我不会通过用户界面运行。 但如果你使用的计算机有显卡,那么这应该可以运行。 但在这个情况下,我打算通过命令行接口运行。 我们会取消这个,然后使用这些值。 所以你可以看到我们正在使用的模型架构。 我将训练轮数减少到1次,最大样本量设为5000,批次大小设为4,梯度积累步骤设置为8,低秩设为4。 只是为了快速完成教程,我把所有这些都降低了,但你得调整到最优水平。 所以到最后,你会得到一个好的模型。 你甚至可以点击预览命令,从这里生成指令。 一旦你点击它,命令就准备好了。 所以你只需将其复制并粘贴到终端中。 正如我之前所说,我已经降低了这些值,并且去掉了这里的FP16行。 回到终端,我将点击回车并运行这段代码。 现在,这个将会自动下载Quen模型并开始训练。 在这个过程中,它要求我输入权重和偏差令牌,我已经输入了。 现在训练正在进行中。 我看到损失并没有持续下降。 这是因为我们使用了较小的数值,只是为了快速演示如何使用这个工具进行微调。 所以,如果你增加所有参数,比如这里的epoch值,增大样本数量、批量大小和梯度积累步数,你应该能看到稳定的损失。 最终目标是让损失下降。
打开封面
下载高清视频
观看高清视频
视频下载器
大模型微调实践:动手微调一个好玩/好用的大模型
LLaMA-Factory微调Qwen7B
手把手教你如何使用LLaMA-Factory微调阿里千问 Qwen 大模型
211院校墙推课程,1、大模型微调,Llama_factory介绍!
全栈大模型微调框架LLaMA Factory:从预训练到RLHF的高效实现
如何快速训练自己的llama2?一个视频教会你!
llamafactory微调全流程一
Windows基于LLaMA-Factory来微调训练finetune千问2(Qwen2)大模型,让大模型掌握绅士内容
【大模型微调】使用Llama Factory实现中文llama3微调
【0代码微调大模型】在阿里云上使用LLaMa-Factory
【保姆级教程】6小时掌握开源大模型本地部署到微调,从硬件指南到ChatGLM3-6B模型部署微调实战|逐帧详解|直达技术底层
6、使用llamafactory进行可视化模型微调
【实战】通义千问1.8B大模型微调,实现天气预报功能
llamafactory本地部署教程(精简快速)
LLaMA-Factory微调ChatGLM3自我认知
开源大模型高效微调流程详解|Llama-Factory零门槛微调大模型|保姆级微调教程
杀鸡用牛刀,我基于LLaMA-Factory微调大模型来实现商品评论情感分析,准确率高达91.70%
今日NLP最火论文!Github标星过万!零代码大模型微调! LlamaFactory可以支持100多个大模型同时微调!
最新开源大语言模型GLM-4模型详细教程—环境配置+模型微调+模型部署+效果展示
微调LLM中的魔鬼细节|大型语言模型lora调教指南
手写一个llama factory—12-llamafactory工程入口
【直接可用的微调脚本】单机多卡微调ChatGLM3、Qwen,还可以接入 Tensorboard 可视化训练Loss,快来学习先人一步!
基于LLaMA-2微调中文大模型 千元预算,效果媲美主流大模型
llamafactory大模型微调llama.cpp量化gguf模型中转ollama微调量化后推理调用llamafactory本地windows部署报错解决方案
LlamaIndex入门 - 01 什么是LlamaIndex?
【直播录屏】Qwen2大模型微调
LLaMA-Factory的基本使用与安装
7、使用llamafactory对微调后的模型进行合并
10分钟快速掌握多模态视觉大模型的微调训练【整合包已备好,快来学起来吧!】
本地微调Llama3开源大模型!用自己的知识库打造自己的专属大模型!老旧显卡也能跑得动大模型微调!
chatglm3模型本地部署及微调
llama3-06 基于llama-factory和自定义数据集进行模型微调
在Linux下部署Llama2超详细教程(适合零基础小白)
部署微调ChatGlm3-6B大模型【小白0到1】
【保姆级部署教程】想得到一个属于自己的大模型?快来了解一下LLaMA Factory微调框架,10分钟快速上手,轻松完成大模型高效微调
大模型为什么需要微调?有哪些微调方式?#大模型 #微调
训练大模型LLM对话语料获取:从知识文本中提炼对话的工具
大模型瘦身技术 GGUF和GPTQ
LLAMA-3🦙微调极简教程,微调自己的llama3模型,更少的资源更快的速度
【0代码微调大模型】免费白嫖Google的显卡