V
主页
9、双P40计算卡能否在本地跑14B
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
4、P40是否支持6B,7B,14B大模型规模实测
8、单张P40显卡能否在本地跑起千问14B
为什么说14b是qwen2.5的更优解
P40显卡拆解
200元显卡大战Qwen2.5-32B,垃圾佬也想跑本地大模型,P104双卡Linux下Ollama跑Local LLM
5、ESXI显卡直通到win10
4、r730服务器安装显卡
r730进行t4和p40显卡切换
2、r730服务器耗电量和噪音测试和调节
2、使用dify
1、fastgpt私有化部署--上
R730直通双显卡踩过的那两个坑
10、手把手通过oneapi调用本地私有化大模型
ollama接入oneapi给fastgpt使用
6、glm3发布api服务(p40不成功,t4推理成功)
dbgpt效果展示(t4卡推glm4-9b)
本地部署Molmo-7B多模态大模型媲美Llama3.2-90B!全方位测评:图像识别、视频分析,打造多模态视觉AI助手!轻松实现监控视频快速找人
1、dell机架服务器r730拆机
估值超200亿的「中国版OpenAI」是什么来头?
怎样将DELL R730组建为家用服务器
国资委打响国内人工智能第一枪!风口之下,猪都能起飞!!!
milvus安装部署和访问
druid连接池源码分析--荐
1、安装dify
大模型管理工具ollama搭建和使用
3、actuator源码深度分析
DellR730服务器安装riser1卡操作步骤
7、使用llamafactory对微调后的模型进行合并
2、milvus简单使用
6、ESXI显卡直通到ubuntu22
实现领域驱动设计-第14章 应用程序(收尾)
神经网络杀疯了!登上nature神坛!35年来首次被证明具有系统泛化能力,能像人类一样举一反三!未来是AI的未来!
commons-pool2源码分析
3、fastgpt跟milvus结合
大模型为什么跌到了白菜价
DELL 服务器T7810 拆机,耗电实测
3、本地私有化部署AI知识库
6、本地私有化部署ChatGLM3
亲身经历R730安装两块算力卡踩过的三大坑
领域驱动设计(软件核心复杂性应对之道)-第14章