V
主页
9、双P40计算卡能否在本地跑14B
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
2、milvus简单使用
4、P40是否支持6B,7B,14B大模型规模实测
8、单张P40显卡能否在本地跑起千问14B
11、P40跑ChatGLM4
7、在自己本地服务器上使用P40显卡进行大模型微调实测
r730进行t4和p40显卡切换
【全374集】2024最新清华内部版!终于把AI大模型(LLM)讲清楚了!全程干货讲解,通俗易懂,拿走不谢!
4、r730服务器安装显卡
2、使用dify
1、快速部署大模型(Chatglm2+langchain)
1、安装dify
DellR730服务器安装riser1卡操作步骤
P40显卡拆解
1、fastgpt私有化部署--上
5、ESXI显卡直通到win10
解构领域驱动设计-第14章 领域分析建模
【喂饭教程】Ollama+OpenWebUI部署本地大模型,畅玩上万个开源大模型~小白入门必看的保姆级教程!
【AI大模型】全面对比解析5款开源免费本地知识库,你更适合哪一款?带你一探究竟!
dbgpt效果展示(t4卡推glm4-9b)
druid连接池源码分析--荐
2、怎么使用大模型(Chatglm2+langchain)
实现领域驱动设计-第14章 应用程序(收尾)
大模型管理工具ollama搭建和使用
【10分钟学会】一个代码不写,教你如何一键搞定开发和上线 | Cursor + Devbox,让AI给你打工,超详细教程~草履虫都能学会!!!
10、手把手通过oneapi调用本地私有化大模型
2、自定义java规则方法[sonar2024最新版本]
t470p拆机换内存
Windows一键部署MaxKB,本地搭建私人专属知识库,不挑配置,1000多种开源大模型随便用!小白必看的保姆级教程!AI大模型教程,大模型入门
喂饭教程!25分钟本地部署Qwen2大模型:配置、微调、部署+效果展示,带你训练自己的行业大模型!
15分钟快速上手,如何为RAG选择一款合适的embedding模型?(附教程)
华为p40改装7400毫安大电池,实电量
【AI项目实战】全网最适合新手入门的【RAG医疗问答系统】教程:如何搭建一个基于RAG的医疗问答系统,我竟30分钟就搞懂了?
DELL 服务器T7810 拆机,耗电实测
北大发布多模态大模型LLaVA-o1,推理计算Scaling新思路
4、fastgpt实时天气预报查询&远程API调用
milvus安装部署和访问
亲身经历R730安装两块算力卡踩过的三大坑
3、本地私有化部署AI知识库
6、glm3发布api服务(p40不成功,t4推理成功)
提升 Cursor 使用体验的 3 个关键技巧全解