V
主页
无需显卡!用CPU搞定大模型运行部署!【详细手把手演示】
发布人
无需借助显卡,基于CPU就可以完成开源大模型ChatGLM3的私有化运行部署。内容关键字涉及AI 开源大模型 ChatGPT ChatGLM GPU GitHub 私有化运行部署 详细视频教程等。
打开封面
下载高清视频
观看高清视频
视频下载器
BitNet开源:1.58比特让大模型轻如燕,CPU就能跑100B参数
如何把开源AI大模型部署到自己的电脑上?
无需网络,手机硬件就能运行大语言模型
稚晖君设计的UltraLink,太优雅了
ollama本地CPU部署开源大模型
本地运行通义千问72B!兼容AMD显卡或纯CPU【LM Studio】
【穷训】2W服务器训练7B模型
本地运行通义千问32B!不吃配置保护隐私,可兼容AMD显卡或纯CPU
本地运行,永久免费的GPT4all 部署教程
一台跑AI的电脑需要什么配置?
轻松搭建本地大模型 Web 交互界面 - Ollama + Open WebUI
玩转开源大模型之显存占用计算
在个人电脑上,M3 Max、M1 Pro和RTX 4090三种芯片跑开源大模型效果对比
Ollama+AnythingLLM搭建私有知识库
我电脑显存不够,怎么用CPU跑大模型啊?稳了,跟上我们的节奏。本地部署,本地知识库。
家庭PC本地部署LLama3 70B模型测试,对比70B和8B模型的效果,看看人工智障距离人工智能还有多远
【训练自己的Llama2】100%学会部署B站最好的llama2医疗大模型,llm应用现状及如何微调一个医疗大模型?Llama2模型申请与本地部署
领导说我们写的JAVA代码跟小学生时代那样,一个编辑功能,先查出来全部删除再新增
Chat with RTX初体验:部署简单、输出飞快、优化惊艳,但输出质量令人难绷
llama3.1国内可直接使用教程,405B堪称最强开源大模型,API无限调用,迪哥带你怎么玩,手把手教你打造自己的大模型!-人工智能、大模型、深度学习、NLP
4060Ti 16G显卡运行chatglm3-6b-32k模型效果
如何训练一个写小说的大模型?
在服务器上部署通意千问Qwen-7B开源大模型
个人微调大模型经济配置推荐
在4090上完美运行70B的llama2模型
6G显存畅享大模型+本地知识库!LangChain-Chatchat整合包一键本地部署
用 300 元的显卡推理 Qwen1.5-14B 效果展示
以Llama2为例,教你部署自己的私有化大模型
如何使用chatglm3+fastgpt做自己的知识库
私人AI革命:GPT-4 All本地部署,无需GPU,尽在掌握!
【ChatGLM3-6B】本地部署一键包 带训练版
Qwen2本地部署和接入知识库 支持N卡/A卡/纯CPU
RWKV—部署在本地的AI大模型,只需2G显存!人人都有拥有自己的AI!
【B站首发最简易方法】4G运存只用CPU都能跑!中文llama模型简单部署教程(下载链接在简介)
数据库的分库分表,可能真的要退出历史舞台了!
无需GPU,本地部署Llama2-13B模型
Qwen2大模型保姆级部署教程,快速上手最强国产大模型
【一键包】谁也不能阻止我和AI小姐姐涩涩,显存不够内存来凑!|无限制|解除思想钢印|AI女友|教程|语言模型|人工智能
Ollama+OpenWebUI本地部署教程,畅玩上万个开源大模型
7分钟教你搭建本地无限制聊天AI,还能喂知识!