V
主页
2080 Ti就能跑70B大模型,上交大新框架让LLM推理增速11倍
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
RTX3080 20GB大显存是你想要的么?
44GB的2080Ti行不行?
AI绘画 2080ti 22G魔改版 跑图和炼丹 挑战RTX 3090
2080Ti真的有这么多人要么?
家庭PC本地部署LLama3 70B模型测试,对比70B和8B模型的效果,看看人工智障距离人工智能还有多远
2080Ti双卡22GB SLI测试报告
【全748集】清华大佬终于把AI大模型(LLM)讲清楚了!通俗易懂,2024最新内部版!拿走不谢,学不会我退出IT圈!
迟早999 Tesla V100 16GB大批量爆降抛售
买了两张RTX 2080 Ti的看过来!玩NVLink双卡攻略
大模型推理 NvLink 桥接器有用吗|双卡 A6000 测试一下
2080Ti涡轮卡全品牌 | 选 品 解 析 |
4x2080ti 22G 组装低成本AI服务器跑Qwen1.5-110B-int4竟如此丝滑?
FastChat新版本发布整合vLLM,让大模型推理能力提升10倍
中文版LLAMa3 70B,性能强化,零损耗,震撼登场!
无内容审查(NSFW)大语言模型整合包,进阶玩法,角色定制,角色扮演,接入stable_diffusion
从0开始训练1.4b中文大模型的经验分享
没有GPU也不愁,基于Groq API无压力使用Llama 3 8B & 70B 开源大模型
Llama3与GPT4全面对比测评,开源大模型vs闭源大模型,哪个更强?
什么显卡能让ChatGPT跑在本地? 计算卡语言模型性能需求分析
只要2200元的A100,开箱测试
无内容审查无思想钢印,CausalLM-7B,本地大模型整合包,兼容CPU和GPU推理
本地跑大模型,需要什么配置
如何知道一个大模型在推理和训练时需要多少显存?
让Mixtral-8*7B模型运行在16GB显存GPU上 #小工蚁
【实战】通义千问1.8B大模型微调,实现天气预报功能
22GB显存2080TI可以双卡SLI么?
闲聊:我如何从零基础实现一个月内掌握大模型!跟着我学,你也可以轻松弯道超车~
【13B大模型无用】大家不需要用自己的8G显存跑大模型了,没意义,70B也许成,我试试
4060Ti 16G AI绘图什么水平?SD老炮告诉你!stable diffusion AI绘画买什么显卡推荐
11K+ star!免费部署私人 ChatGPT的项目:LobeChat
无内容审查(NSFW)大语言模型整合包,Yi-34B-Chat,本地CPU运行,角色扮演:潘金莲
大模型推理 A40 vs A6000 谁更强 - 对比 Yi-34B 的单、双卡推理性能
小显卡玩转大模型,模型分层推理法
中文音+字幕 - 消费显卡跑千亿参数模型?PowerInfer介绍
从零开始学习大语言模型(一)
3090单卡5小时,训练自己的专属ChatGPT
【四路RTX2080Ti】深度学习服务器配置总结
LM Studio - 一键搞定本地下载运行LLM,并兼容OpenAI API
vLLm: 大模型LLM快速推理的神器, llama2秒级完成推理不用再等待
如何训练一个写小说的大模型?