V
主页
A卡/CPU运行大模型+知识库问答绝佳方案【AnythingLLM】
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
本地运行通义千问72B!兼容AMD显卡或纯CPU【LM Studio】
当我把熊猫烧香代码发给ChatGPT会发生什么
Ollama + AnythingLLM 搭建强大知识库!具备RAG 和AI Agent的AnythingLLM,零成本搭建本地知识库,免费、无限制、保护隐私
最便宜的48GB显存运算卡-RTX8000
A卡cuda魔法,ai性能大升级
amd npu 大模型推理demo
anythingllm+ollama搭建自己本地AI知识库
A卡AMD显卡Windows可以通过ROCm运行的AI绘图和大语言模型项目
[AI绘画] A卡可以在WIN系统下 满血运行Stable diffusion了 7900XTX显卡
5分钟教会你给本地大模型接入知识库RAG~【小白喂饭级教程】
5款开源免费本地知识库大横评,总有一款适合你!
【垃圾佬】计算卡!乱涨价?特斯拉M40-24G大显存实测!
小显卡玩转大模型,模型分层推理法
用 300 元的显卡推理 Qwen1.5-14B 效果展示
7900XTX的AI绘图表现如何?A卡真的不能跑画图吗?Stable Difffusion性能测试
万元CPU本地跑qwen2:72B大语言模型!
【AI主播-LLM篇】Ollama + AnythingLLM,有手就行本地知识库+LLM 组合拳,小白福音
AMD显卡使用Ollama本地运行AI大语言模型LLM,增加支持6600/6700系列。
【A卡跑AI绘图】A卡在windows和linux下跑图速度对比-stable diffusion
本地跑大模型,需要什么配置
iPhone本地运行通义千问大模型【LLM Farm】
不是百亿模型用不起,而是通义千问MoE更有性价比
M3MAX 128G 运行llama2-70B
使用AnythingLLM搭建知识库的注意事项
基础篇:3.使用AnythingLLM+ollama打造纯本地知识库
LM Studio:全网最简单LLM模型免费本地使用教程
小米14安装运行Qwen1.5-7B开源大语言模型(无需联网)
AnythingLLM+Ollama搭建本地金融知识库,效果出奇的好
[茉卷知识库] 本地部署通义千问 1.5 14B 模型
ChatOllama又更新啦!| 基于Ollama的100%本地化知识库现在支持多种文件类型
本地知识库部署:AnythingLLM 安装和使用指南
免费的!只要简单5步:AMD Ryzen AI 小主机本地部署大语言模型!7840HS、8845HS 部署LLAMA 2和Mistral!自建本地ChatGPT
打破NVIDIA护城河!AMD显卡可以原生跑CUDA应用:速度还挺快!
基于大模型的本地知识库问答系统 | 开源的大模型和本地知识库问题系统 | LangChain和LLM | 企业可免费商用的国内大模型
小米14安装运行Qwen1.5-14B开源大语言模型(无需联网)
AMD显卡的chatGLM部署,绝对不是CPU运算,是真的用显卡跑
为A卡AMD显卡Windows AI绘图增加支持所有AMD显卡
大家看看我这个8G的翻译软件怎么样|Bob翻译+通义千文本地部署
llama3 本地测试cpu-ollama,最强开源大模型
在4090上完美运行70B的llama2模型