V
主页
核能挑战:8GB显存本地跑Llama 405B
发布人
核能挑战:8GB显存本地跑Llama 405B
打开封面
下载高清视频
观看高清视频
视频下载器
为什么说14b是qwen2.5的更优解
从0.5B到340B的LLM都需要多少显存?
推理能力最强的llama3.1 405B,不属于中国人
许久不见,小扎已经用东北话发布Llama3.1了!
【13B大模型无用】大家不需要用自己的8G显存跑大模型了,没意义,70B也许成,我试试
最便宜的48GB显存运算卡-RTX8000
教你仅用两台Mac,在家跑Llama3.1 405,老黄看了落泪!
192G M2 Ultra 面对 Llama3.1-405B:唏,可以和解吗?
炸裂!💥最强开源模型新王通义千问2.5 72B被我用4GB老显卡本地跑通了!
家庭PC本地部署LLama3 70B模型测试,对比70B和8B模型的效果,看看人工智障距离人工智能还有多远
4060Ti跑LLama3.1和Qwen2测试对比
震撼来袭,硬盘够大,一步运行llama3.1:405B
2080TI魔改22G,Linux系统下4卡交火完工,跑数字人效果不错……
今日Github最佳开源项目,MinerU一站式开源高质量数据提取,PDF文档和网页电子书提取,转换为Markdown格式,家人们,赶快去了解一下吧!
神操作!闲置手机电脑变身“超级计算机”,在家运行70B大模型!
本地部署 Llama3.1 405B大模型!最简单的方法,支持CPU /GPU运行 !100% 保证成功!!
LlamaCoder,开源且免费,基于Llama3.1-405B大模型,让每个人的想法变成应用程序
双4090部署qwen72b大模型 每秒150tokens
千问Qwen2 7B模型8g显存运行效果,23Token/s
美国的GPT4被周鸿祎联合的中国混合大模型超越了!
赛博佛祖Karpathy 用900行代码实现Llama3.1
英伟达最强开源模型 Llama 3.1 Nemotron 70B :超越GPT-4o?| 英伟达 Nim 平台值得探索
实测4060Ti 16G vs 4070Ti SUPER运行AI(人工智能)性能对比
性价比拉满!性能比肩H100,价格却不到A100的一半?
Llama 3.2 一键本地部署!支持视觉、图片识别功能!Meta 最强开源大模型,100%保证成功!! | 零度解说
Llama3.1超越GPT-4o!扎克伯格嘲讽OpenAI:开源才是未来
在GitHub上一天获得将近1万颗星,火爆全球,MemAI开源Mem0,LLM 和 AI 代理的记忆层,实现真正个性化的 AI 交互。
疯了!两台苹果笔记本竟能运行 405B 巨型 AI 模型!
阿里巴巴最强开源大模型Qwen2.5-72B-Instruct,击败Llama3.1-405B!Qwen2.5+LlamaIndex实现Text to SQL
「Llama 3.1」405B 在2台Macbook上成功运行❗️性能媲美GTP-4o|国内大模型喜提更新❓
Gemma 2 轻量模型发布,手机能运行的开源小钢炮
M3MAX 128G 运行llama2-70B
本地运行通义千问72B!兼容AMD显卡或纯CPU【LM Studio】
最强开源大模型,超大杯的llama3:405B :)
CPU反超NPU,llama.cpp生成速度翻5倍! LLM端侧部署新范式T-MAC开源
本地部署 Llama3.1 405B大模型!最简单的方法,支持CPU /GPU运行 !100% 保证成功!!
llama3.1下载,本地部署,运行,全过程,8G显存即可。
LLama3.1:Meta给了李彦宏一记耳光
flux大模型
[测试] qwen 0.5b 1.8b 7b 14b 模型翻译文本测试 14b 效果不错 7b 可以接受