V
主页
[测试] qwen 0.5b 1.8b 7b 14b 模型翻译文本测试 14b 效果不错 7b 可以接受
发布人
cpu amd 5800u qwen14b 最多占 8G 内存 效果非常好
打开封面
下载高清视频
观看高清视频
视频下载器
从0.5B到340B的LLM都需要多少显存?
Qwen2为何“高分低能”?实测中表现还不如Qwen1.5!
高速翻译!无需等待!Sakura 1B8,Qwen 1B8以及Qwen1.5 14b 双语通用模型介绍
[茉卷知识库] 本地部署通义千问 1.5 14B 模型
Ollama+Qwen1.5实现RenPy游戏翻译
0.5B小模型将原始HTML完美转换为干净的Markdown,或许专用场景的小模型才是未来主流
ChatGLM3-6B 对比 Qwen-14B,到底谁更强?
几个开源的、可以私有部署的翻译模型介绍和试用:LibraTranslate、M2M100
千问Qwen2 7B模型8g显存运行效果,23Token/s
为什么说14b是qwen2.5的更优解
虎扑评分之LLM大模型语言模型
【ai技术】(4):在树莓派4上,使用ollama部署qwen0.5b大模型+chatgptweb前端界面,搭建本地大模型聊天工具,速度飞快
本地AI翻译一键安装,luna启动sukura大模型,不需再下载任何文件!评论区链接置顶!
Qwen1.8b 大语言模型实测:轻薄本上的性能表现如何?
Qwen2双语字幕自动化翻译,AI字幕翻译,千问2大模型,视频双语字幕翻译,翻译绅士内容,看懂老师们说什么
本地语言模型个人推荐
【实战】通义千问1.8B大模型微调,实现天气预报功能
小米14安装运行Qwen1.5-7B开源大语言模型(无需联网)
qwen-7b 根本停不下来!
实时AI汉化翻译工具,LunaTranslator,几乎完美的内嵌翻译游戏体验,TGW翻译源对接介绍。
开源通义千问Qwen1.5系列 14B和MoE2.7B哪个更好? #小工蚁 #gpu
通义千问开源Qwen1.5-32B 模型对比14B、72B性能如何?
在4090上完美运行70B的llama2模型
万元预算本地流畅跑Qwen1.5_72B AWQ
无障碍阅读英文网站:本地AI大模型通义千问72B+沉浸式翻译
Qwen2大模型保姆级部署教程,快速上手最强国产大模型
用 300 元的显卡推理 Qwen1.5-14B 效果展示
如何知道一个大模型在推理和训练时需要多少显存?
小模型的时代终于来了,1.5B参数量模型也能轻松构建GraphRAG
本地AI大模型PDF多语言翻译
Qwen 1.5 (通义千问升级版) | 新手入门
qwen大模型地部署和微调法律大模型(只需5G内存)
Qwen1.5系列6个模型如何选择? AWQ还是GPTQ?#小工蚁
小米14安装运行Qwen1.5-14B开源大语言模型(无需联网)
英伟达4090实测通义千问Qwen-72B-Chat 模型性能
Vicuna+翻译,体验本地模型带来ChatGPT90%的效果
沉浸式翻译,LunaTranslator,XunityTranslate,SillyTavern,对接TGW本地AI服务教程
LMSYS全球大模型PK排行榜 Qwen1.5-72B开源排名第一 #小工蚁
Meta推出新AI翻译大模型「SeamlessM4T」,可翻译近百种语言
微软发布2.7B小模型,碾压谷歌Gemini!性能直接打平比自己大25倍的大模型?