V
主页
半块RTX4090 玩转70B大语言模型
发布人
自ChatGPT发布以来,隔三岔五就有人宣称又在多么没门级的硬件上成功运行了大模型 但只要点进详情就会发现要么模型小得可怜,要么速度慢得没有实用价值 而我的目标是,半块RTX4090的预算,70B档次的量化模型,以及与在线AI相当的流畅对话!
打开封面
下载高清视频
观看高清视频
视频下载器
第33集:AI会不会造就「黑客帝国」?
看点2-7 认真工作的程序员,你们就说帅不帅吧
70种Nvidia GPU显卡大比拼 大模型、AI、LLM、深度学习炼丹你到底该怎么配显卡?
实测RTX4090 vs A100运行AI(人工智能)性能对比
苹果M2 Ultra:AI大模型的新希望
M3 max 48g 跑Llama3 70b 4bit
200元显卡大战Qwen2.5-32B,垃圾佬也想跑本地大模型,P104双卡Linux下Ollama跑Local LLM
【13B大模型无用】大家不需要用自己的8G显存跑大模型了,没意义,70B也许成,我试试
如何组装一台4卡4090GPU服务器?一口气看完市面上常见的10种方案
4张tesla P100 16G显存运行 llama3.1 70B大模型
NVIDIA Tesla V100 16GB专业计算卡改装一体式水冷散热温度狂降40度
英伟达4090实测通义千问Qwen-72B-Chat 模型性能
M3MAX 128G 运行llama2-70B
开箱AI大显卡省钱用最低成本的显卡跑大模型stablediffusion语言模型等,高性价比全是大智慧没有智商税,魔改2080ti跑cuda人工智能模型全是干货
4x2080ti 22G 组装低成本AI服务器跑Qwen1.5-110B-int4竟如此丝滑?
垃圾佬的狗骑吕布服务器, Wyse5070杂谈介绍[Grass科技实谈]#1
Llama 3.2 一键本地部署!支持视觉、图片识别功能!Meta 最强开源大模型,100%保证成功!! | 零度解说
万元CPU本地跑qwen2:72B大语言模型!
【大模型】个人学习大模型技术需要什么样的电脑配置?
无内容审查无思想钢印,CausalLM-7B,本地大模型整合包,兼容CPU和GPU推理
只要2200元的A100,开箱测试
LLAMA 3.1来了 8B,70B,405B 效果如何
10000元最强深度学习主机,显卡24G的显存,这配置太香了!
600元的P100 16G AI画画真香 stable diffusion
AI绘画的“显存杀手”?5块全新40系显卡怒测“最强开源大模型”——Stable Diffusion XL效率测试&使用技巧,SDXL低显存Web UI优化指南
2080 Ti就能跑70B大模型,上交大新框架让LLM推理增速11倍
什么显卡能让ChatGPT跑在本地? 计算卡语言模型性能需求分析
Mac Studio 运行llama2, 分别跑7b,13b,70b模型
新的AI神卡?Tesla V100 16G SXM2显卡
核能挑战:8GB显存本地跑Llama 405B
【一键包】谁也不能阻止我和AI小姐姐涩涩,显存不够内存来凑!|无限制|解除思想钢印|AI女友|教程|语言模型|人工智能
RTX4090跑本地Ai大模型,私有化部署AI,分享给员工使用
硬核CPU跑llama3 70B模型速度如何?
RTX4090游戏卡,为何在智算中心备受青睐!
1.5TB内存!192核心384线程!双路EPYC9654+RTX4090=神豪的量化+深度学习电脑
装一台用于人工智能的深度学习服务器!主要配置 4张4090显卡/至强8336C 32核心CPU/2700瓦电源/4U机架式服务器
Ollama 0.2带来重大更新 - 支持多模型并发啦 🍭
wyse 5070加装传统sata固态硬盘
4090和A100哪个跑图速度快? #AutoDL
【HomeLab】大模型分布式训练,基于家用炼丹炉集群