V
主页
我用400块的洋垃圾跑AI大语言模型
发布人
400块的洋垃圾也能跑AI大语言模型? 显卡不够CPU来凑,我使用e5 2666v3跑1.5亿参数到27亿参数的模型,效果还可以?
打开封面
下载高清视频
观看高清视频
视频下载器
他竟然把9.9的服务器分成虚拟机给全班同学用,一个同学只收10块钱,赚了好几百
4090逆天的ai画图速度
组装一台自己的GPU炼丹主机,不贵,千元出头。AI主机也能捡垃圾。
200元显卡大战Qwen2.5-32B,垃圾佬也想跑本地大模型,P104双卡Linux下Ollama跑Local LLM
无核显、单PCIE主板玩转Tesla M40(200元价位的980ti加强版)
民间神机‘2666+580‘’实际表现持续为你播出#电脑装机 #电脑配件 #电脑
最便宜的48GB显存运算卡-RTX8000
600元的P100 16G AI画画真香 stable diffusion
海雀显卡M40 24G显存是目前能买到的做为AI深度学习用的最便宜的显卡了……
22GB不够64GB怎么样?
2024年:显卡Stable Diffusion性能AI排行榜!
本地运行通义千问72B!兼容AMD显卡或纯CPU【LM Studio】
本地语言模型个人推荐
300元无矿的Tesla P4计算卡 ?仅75瓦还能畅玩3A游戏?ITX利器?我买回来一测便知!
不是所有人都适合E5,不要盲目跟风E5。这玩意只有特定人群合适。新手小白谨慎入坑。
小白使用E5-2666v3一个月真实体验
AMD显卡使用Ollama本地运行AI大语言模型LLM,增加支持6600/6700系列。
A卡/CPU运行大模型+知识库问答绝佳方案【AnythingLLM】
最强垃圾王Tesla P40 24GB
RX580:我不仅能打游戏,还能AI画画!
用不到百元的矿渣玩AI绘图,香?坑?
P104、P106、40HX显卡AI跑图对比
开箱AI大显卡省钱用最低成本的显卡跑大模型stablediffusion语言模型等,高性价比全是大智慧没有智商税,魔改2080ti跑cuda人工智能模型全是干货
单卡跑分28万仅仅90块钱拥有,英伟达P104-100 8G 装驱动方法教程 #图拉丁 #P106 #P104
这和在大街上拉屎有什么区别
400元itx跑图神器?P104整机,仅6L随身携带
400块的e52666v3洋垃圾,畅玩腾讯全家桶
用 300 元的显卡推理 Qwen1.5-14B 效果展示
X99 2690v3志强洋垃圾一年使用感受,做了这几个设置,让垃圾们原地起飞!
M40 24G 跑novelai-webui训练模型
AI电脑硬件推荐篇
【Ai教程】手机可以直接跑最新的Qwen2.5大模型?最简单的三种使用方法一个APP搞定
只要2200元的A100,开箱测试
万元CPU本地跑qwen2:72B大语言模型!
E5老将对比12代cpu,尚能饭否?E5 2666v3综合对比i5 12400
超级省钱的本地运行国产大模型的电脑配置展示,Ollama run glm4
仅需300块就能拥有秒杀众一线显卡!Tesla P4上手实测,性能远超你想象
双显卡跑AI绘图!用两张P102搭建平价的开放式Stable Diffusion工作站
为什么说14b是qwen2.5的更优解
家庭PC本地部署LLama3 70B模型测试,对比70B和8B模型的效果,看看人工智障距离人工智能还有多远