V
主页
京东 11.11 红包
192G M2 Ultra 面对 Llama3.1-405B:唏,可以和解吗?
发布人
如果之后还等不到好心人在 Ollama 上发布 q2_k 就自己动手丰衣足食吧!(x 【后日谈:不存在的】
打开封面
下载高清视频
观看高清视频
视频下载器
llama3.1国内可直接使用教程,405B堪称最强开源大模型,API无限调用,迪哥带你怎么玩,手把手教你打造自己的大模型!-人工智能、大模型、深度学习、NLP
Apple M2 Ultra 192G 简单比较各模型推理能力:Llama3.1-70B, Mistral-Large, DeekSeek-v2-256B 等
教你仅用两台Mac,在家跑Llama3.1 405,老黄看了落泪!
核能挑战:8GB显存本地跑Llama 405B
苹果M2 Ultra:AI大模型的新希望
使用Mac Studio跑Mistral AI新出Mixtral-8x7B-MoE大模型速度测试(M2 Ultra 76-core GPU 192GB RAM)
Ollama 完爆 垃圾MLX,m3 max mlx测试
在个人电脑上,M3 Max、M1 Pro和RTX 4090三种芯片跑开源大模型效果对比
M2 Ultra 简单测 qwen2-72b 和 gemma2-27b
「Llama 3.1」405B 在2台Macbook上成功运行❗️性能媲美GTP-4o|国内大模型喜提更新❓
Llama2-70B-chat Q8_0 在 M2 Ultra 上的推理性能表现
本地部署 Llama3.1 405B大模型!最简单的方法,支持CPU /GPU运行 !100% 保证成功!!
Llama 3.1的405b真实评测
疯了!两台苹果笔记本竟能运行 405B 巨型 AI 模型!
LLAMA 3.1来了 8B,70B,405B 效果如何
主流大模型哪个更适合日常使用,llama 3.1/Qwen2/GLM4大对比
4060Ti跑LLama3.1和Qwen2测试对比
感受一下M2 Max满载时的噪音
M3MAX 128G 运行llama2-70B
Llama3.1 405B开源大模型!挑战Claude3.5和GPT-4o!微调Llama3.1 8B模型+GraphRAG搭建本地知识库!
震撼来袭,硬盘够大,一步运行llama3.1:405B
零代码微调Llama3.1 8b大模型!中文文本分块+数据集制作!Axolotl+qLoRA十分钟光速微调打造法律大模型!#llama3 #finetuning
还是先佛系试试Llama3.1吧,中文和推理确实都有些肉眼可见的进步。
高端局!
双4090部署qwen72b大模型 每秒150tokens
家庭PC本地部署LLama3 70B模型测试,对比70B和8B模型的效果,看看人工智障距离人工智能还有多远
Mac Studio 运行llama2, 分别跑7b,13b,70b模型
半块RTX4090 玩转70B大语言模型
从0.5B到340B的LLM都需要多少显存?
7950x 黑苹果的超强实力,跑分结果 跟MacBook m2 max 匹敌
小显卡玩转大模型,模型分层推理法
没有 GIL 的 Python 3.13 速度有多快?
推理能力最强的llama3.1 405B,不属于中国人
VP给电脑传视频好难呀
双路AMD EPYC 7K62 96核 192线程性能测试:内存带宽 cpuz cinebench CFD等
性价比拉满!性能比肩H100,价格却不到A100的一半?
Windows下中文微调Llama3,单卡8G显存只需5分钟,可接入GPT4All、Ollama实现CPU推理聊天,附一键训练脚本。
最新macOS的一些奇怪但流畅的动画
大语言模型在苹果M3处理上推理效果怎么样?
2080TI魔改22G,Linux系统下4卡交火完工,跑数字人效果不错……