V
主页
Windows笔记本本地微调训练Qwen2大模型(非wsl),炼制属于自己的无审查(nsfw)大模型,Unsloth,Python3.11,fineTuning
发布人
Windows笔记本本地微调训练Qwen2大模型(非wsl),炼制属于自己的无审查(nsfw)大模型,Unsloth,Python3.11,fineTuning Unsloth Windows版本整合包:https://pan.quark.cn/s/eb049e82be02 llama.cpp 整合包:https://pan.quark.cn/s/cc330121fc4f koboldcpp 客户端:https://pan.quark.cn/s/67c8385a6e02 项目地址:https://github.com/v3ucn/Unsloth-Windows-fineTuning-Qwen2
打开封面
下载高清视频
观看高清视频
视频下载器
已解除一切思想钢印,最自由的角色扮演型AI【NSFW】|无限制|超真实|人工智能|开源模型|大语言模型|GPT|AI
无内容审查(NSFW)大语言模型整合包,进阶玩法,角色定制,角色扮演,接入stable_diffusion
【一键包】谁也不能阻止我和AI小姐姐涩涩,显存不够内存来凑!|无限制|解除思想钢印|AI女友|教程|语言模型|人工智能
大模型微调实践:动手微调一个好玩/好用的大模型
5分钟学会在Windows上搭建模型训练环境 | WSL安装| CUDA | Conda | Unsloth
我们训练了一个没有道德限制的大模型
llama3-novel中文写作模型,绅士小说,colab合并llama3底模和lora方案
Windows基于LLaMA-Factory来微调训练finetune千问2(Qwen2)大模型,让大模型掌握绅士内容
本地语言模型个人推荐
(NSFW)暗黑写作大模型RWKV_7b本地CPU整合包,创作小说,接入GPT-SoVITS朗读小说
在Google Colab上免费使用Unsloth微调PHI-3.5模型
广东话大语言模型,Qwen-7B-Chat-Cantonese,粤语大模型,方言模型
GPT-SoVITS整合包0610,修复更新,新模型分享,并行同步自动生成字幕,字幕接口使用,长文本推理稳定性测试
【13B大模型无用】大家不需要用自己的8G显存跑大模型了,没意义,70B也许成,我试试
Qwen2-7B-微调-训练-评估
本地跑大模型,需要什么配置
llama3自主构建中文训练集(dataset),中文写作模型数据集,fine-tuning,llama3微调训练
llama3微调训练finetune中文写作模型,Lora小说训练,利用AI写小说
rwkv视觉大模型整合包,比Qwen-VL视觉语言模型成本低,4G显存可玩
text-generation-webui新版整合包,运行多种类无审核大模型,接入GPT-SoVITS/Bert-vits2
【实战】通义千问1.8B大模型微调,实现天气预报功能
无内容审查写作大模型RWKV本地知识库整合包,embedding,词嵌入,写小说
Bert-vits2台湾方言模型分享,台湾腔,超可爱台湾女生腔,你造吗?超嗲的啦,方言测试
Omost整合包,大模型对话产出绅士图(NSFW),lllyasviel(敏神)出品,stable diffusion/LLM,8G显存可玩
如何给大模型喂数据?让AI更懂你~【小白科普】
如何训练一个写小说的大模型?
部署本地大模型和知识库,最简单的方法
ChatTTS威力加强版,针对字母数字情感优化,调用接口api服务,接入Ollama无审查Mistral-7B大模型,接入开源阅读app,AI听书
Qwen2很好,但我选GLM4
用 300 元的显卡推理 Qwen1.5-14B 效果展示
【直播录屏】Qwen2大模型微调
qwen大模型地部署和微调法律大模型(只需5G内存)
5分钟学会微调大模型Qwen2
如何知道一个大模型在推理和训练时需要多少显存?
百度开源数字人项目Hallo,效果炸裂!
【保姆级教程】6小时掌握开源大模型本地部署到微调,从硬件指南到ChatGLM3-6B模型部署微调实战|逐帧详解|直达技术底层
用WSL2训练深度学习模型不比在Windows上快乐?
本地运行通义千问72B!兼容AMD显卡或纯CPU【LM Studio】
无内容审查无思想钢印,CausalLM-7B,本地大模型整合包,兼容CPU和GPU推理
Windows下中文微调Llama3,单卡8G显存只需5分钟,可接入GPT4All、Ollama实现CPU推理聊天,附一键训练脚本。