V
主页
Qwen微调:单机单卡、单机多卡和多机多卡的实现
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
Windows下中文微调Llama3,单卡8G显存只需5分钟,可接入GPT4All、Ollama实现CPU推理聊天,附一键训练脚本。
手把手教你如何使用LLaMA-Factory微调阿里千问 Qwen 大模型
【保姆级教程】6小时掌握开源大模型本地部署到微调,从硬件指南到ChatGLM3-6B模型部署微调实战|逐帧详解|直达技术底层
通义千问Qwen1.5多个LoRA 同时部署和推理加速演示 #小工蚁
【直接可用的微调脚本】单机多卡微调ChatGLM3、Qwen,还可以接入 Tensorboard 可视化训练Loss,快来学习先人一步!
llama3-06 基于llama-factory和自定义数据集进行模型微调
英伟达4090实测通义千问Qwen-72B-Chat 模型性能
双4090部署qwen72b大模型 每秒150tokens
Smaug开源大模型排行第一基于Qwen72B微调大模型 #小工蚁
LlamaFactory:微调QWe (千问)模型 简单微调多数模型的便捷方法
【5分钟搞定】glm3微调教程没有负约!有点节目效果 ...
几百次大模型LoRA和QLoRA 微调实践的经验分享
Qwen1.5-32B 多卡推理
用 300 元的显卡推理 Qwen1.5-14B 效果展示
在服务器上部署通意千问Qwen-7B开源大模型
Tesla P40单卡部署Qwen1.5-32B
qwen大模型地部署和微调法律大模型(只需5G内存)
分布式多机多卡训练初体验
Qwen2很好,但我选GLM4
大模型的微调并没有那么难,小白也可以用自己的数据定制化一个属于自己的Qwen大模型,快来学习吧
如何配置deepspeed多卡训练大模型
【实战】通义千问1.8B大模型微调,实现天气预报功能
4060Ti16G显卡图形化微调训练通义千问Qwen模型(适合新手朋友)
通义千问7B模型LORA微调演示 LORA和主模型合并 #小工蚁
ChatGLM3-6B 对比 Qwen-14B,到底谁更强?
4060Ti16G显卡图形化微调训练chatglm3模型(适合新手朋友)
Qwen 量化模型应该使用 QLoRa 的方式进行微调
一个视频让你成为AI老法师,Qwen1.5全流程最佳实践
使用 qwen.cpp 项目提升 14b 模型的推理速度
如何实现大模型流式回复以及 API 封装?
通义千问-大模型vLLM推理与原理
vllm-gptq 实现 Qwen 量化模型的加速推理
单机多卡环境下轻松部署ChatGLM3 -6B模型,合理应用与灵活管理GPU资源
qwen1.5多型号模型测评体验
通义千问家族新增 Qwen-1.8B 开源对话大模型
增强大模型问答能力!通义千问7B基于本地知识库问答操作指南
阿里开源Qwen-72B-Chat AWQ 4bit量化生产环境演示 #小工蚁
Yi-6B-Chat 已经开源,但效果如何?
4060Ti 16G显卡安装通义千问Qwen1.5-14B大模型
33、完整讲解PyTorch多GPU分布式训练代码编写