V
主页
万元CPU本地跑qwen2:72B大语言模型!
发布人
lobe-chat:https://github.com/lobehub/lobe-chat ollama-web-ui:https://github.com/open-webui/open-webui 霄龙9654本地部署qwen2模型评测
打开封面
下载高清视频
观看高清视频
视频下载器
Qwen2为何“高分低能”?实测中表现还不如Qwen1.5!
Qwen2很好,但我选GLM4
双4090部署qwen72b大模型 每秒150tokens
Qwen2本地部署和接入知识库 支持N卡/A卡/纯CPU
本地运行通义千问72B!兼容AMD显卡或纯CPU【LM Studio】
Qwen2 72B Instruct 全量模型本地运行实测
清华智谱chatglm4-9b-chat和qwen2-7b-chat哪个更强?
最新Qwen2大模型环境配置+LoRA模型微调+模型部署详细教程!真实案例对比GLM4效果展示!
4x2080ti 22G 组装低成本AI服务器跑Qwen1.5-110B-int4竟如此丝滑?
小显卡玩转大模型,模型分层推理法
家庭PC本地部署LLama3 70B模型测试,对比70B和8B模型的效果,看看人工智障距离人工智能还有多远
2080 Ti就能跑70B大模型,上交大新框架让LLM推理增速11倍
爱鼓捣AI排行榜2:Qwen2, GLM-4谁更能打?
英伟达4090实测通义千问Qwen-72B-Chat 模型性能
新的AI神卡?Tesla V100 16G SXM2显卡
Windows笔记本本地微调训练Qwen2大模型(非wsl),炼制属于自己的无审查(nsfw)大模型,Unsloth,Python3.11,fineTuning
【穷训】2W服务器训练7B模型
阿里通义千问Qwen2大模型开源发布 7B达到上一代72B能力 #小工蚁
硬核CPU跑llama3 70B模型速度如何?
Axolotl微调Qwen2-7b开源大模型!AutoGen+Marker自动生成数据集!AutoGen Studio+GPT4评估Qwen2文章能力
部署本地大模型和知识库,最简单的方法
无需显卡!用CPU搞定大模型运行部署!【详细手把手演示】
为啥做AI非得装个ubuntu系统
22GB不够64GB怎么样?
从0.5B到340B的LLM都需要多少显存?
炼丹炉?RTX 2080Ti魔改44g显存
Qwen2-72-Instruct Ceval评测 中英文双语最强开源模型?
【遥感图像生成】把地球装进神经网络!六亿参数,四个突破成果,完美复刻
铭凡BD790i深度使用总结
AMD Ryzen AI 9HX 370处理器:核显跑分已曝光,性能炸裂!
如何将AMD GPU变成本地LLM猛兽:ROCm入门指南
性价比AI神卡——英伟达L40S!
针对龙芯的AMD GPU补丁指出这些中国CPU的“重大平台错误” 2024.6.19
AgentUniverse:蚂蚁发布多体Agent构建工厂的开源框架,可实现法律咨询Agent、事件解读Agent、行业分析Agent、财报生成Agent等
很有趣,但可能受众较窄——¥1699的7840HS ITX MoDT主板使用体验
自己动手组装推荐:极限性价比,7张4090服务器
军火库第三次扩充!!