V
主页
京.东618红包,每天可领3次
双4090部署qwen72b大模型 每秒150tokens
发布人
实验分享:2张4090部署qwen1.5 72b gptq int4 可达150tokens/s
打开封面
下载高清视频
观看高清视频
视频下载器
【穷训】2W服务器训练7B模型
如何组装一台4卡4090GPU服务器?一口气看完市面上常见的10种方案
【机器猛犬】人工智能机械狗,科幻冒险片
【一键包】谁也不能阻止我和AI小姐姐涩涩,显存不够内存来凑!|无限制|解除思想钢印|AI女友|教程|语言模型|人工智能
英伟达4090实测通义千问Qwen-72B-Chat 模型性能
家庭PC本地部署LLama3 70B模型测试,对比70B和8B模型的效果,看看人工智障距离人工智能还有多远
22GB不够64GB怎么样?
显卡偷懒,抓走跑AI视频
动手组装一台4卡4090服务器
【LocalAI】(6):在autodl上使用4090部署LocalAIGPU版本,成功运行qwen-1.5-32b大模型,占用显存18G,速度 84t/s
在服务器上部署通意千问Qwen-7B开源大模型
600元的P100 16G AI画画真香 stable diffusion
ollama vs vllm - 开启并发之后的 ollama 和 vllm 相比怎么样?
中文版LLAMa3 70B,性能强化,零损耗,震撼登场!
大语言模型在苹果M3处理上推理效果怎么样?
组装一台4090显卡的电脑用于AI(人工智能)模型训练
2080Ti部署YI-34B大模型 xinference-oneapi-fastGPT本地知识库使用指南
qwen大模型地部署和微调法律大模型(只需5G内存)
4060Ti 16G显卡运行百川2-13B大模型效果
无内容审查(NSFW)大语言模型整合包,Yi-34B-Chat,本地CPU运行,角色扮演:潘金莲
P104+P40本地部署qwen1.5 72B
私有化部署AI模型成本分析,通义千问720亿参数,qwen1.5-72B-chat模型部署
无内容审查(NSFW)本地大语言模型整合包,rwkv_7B模型测试,小说续写,文字冒险,场景续写
诱导AI去骂人?知名AI模型不正经横评
用 300 元的显卡推理 Qwen1.5-14B 效果展示
巨资测试:4090和A100哪个跑图速度快?UP主诉巨资做的这期视频告诉你
qwen2 大语言模型发布了,具体如何本地安装部署,和 1100 亿参数 130G 大小的阿里千问1.5差距如何?
低成本运行通义千问72B,实现高效高质翻译任务,媲美GPT4
实测RTX4090 vs A100运行AI(人工智能)性能对比
组装个双3090服务器,冲击百亿大模型!
【大模型】个人学习大模型技术需要什么样的电脑配置?
揭秘Ollama: 20个问题带你从零到精通
不会画画,也要自制虚拟皮套
国内大模型基本就是靠两个洋雷锋
最强垃圾王Tesla P40 24GB
ChatGLM3-6B 对比 Qwen-14B,到底谁更强?
AI到底有没有保密意识?
AI视频生成试验:《风》
【13B大模型无用】大家不需要用自己的8G显存跑大模型了,没意义,70B也许成,我试试
本地跑大模型,需要什么配置