V
主页
【ollama本地知识库】_01-ollama入门和自定义模型
发布人
ollama的出现是一个大的事件,相比可以用CPU运行模型的llama.cpp,它的操作更加简单,速度更快,学习的成本更低。本视频演示了安装ollama、在ollama中运行模型、以及如何导入自定义模型。让更多喜欢、从事人工智能语言模型的人少走弯路。这是本视频系列的第一集,不尽之处,移步QQ群:222302526,老朽恭候!
打开封面
下载高清视频
观看高清视频
视频下载器
【ollama本地知识库】_03-WEB交互界面和远程访问
OpenWebUI本地化部署保姆级教程
使用ollama部署大模型并映射到公网API调用01
部署本地大模型和知识库,最简单的方法
ollama+openwebui=免费版的ChatGPT4.0 | 本地部署方案
一键部署本地私人专属知识库,开源免费!可接入GPT-4、Llama 3、Gemma、Kimi等几十种大模型.。
Windows上Docker Desktop部署Ollama和OpenWebUI
ollama+webui+SD功能大整合
如何将本地知识库接入大模型?
【 Ollama + Open webui 】 这应该是目前最有前途的大语言LLM模型的本地部署方法了。提升工作效率必备!_ Llama2 _ Gemma _
快速搭建本地免费知识库
ollama部署本地大模型
【ollama本地知识库】_04-一键安装运行QQ机器人和知识库对话
【保姆级教程】6小时掌握开源大模型本地部署到微调,从硬件指南到ChatGLM3-6B模型部署微调实战|逐帧详解|直达技术底层
本地微调Llama3开源大模型!用自己的知识库打造自己的专属大模型!老旧显卡也能跑得动大模型微调!
Windows下中文微调Llama3,单卡8G显存只需5分钟,可接入GPT4All、Ollama实现CPU推理聊天,附一键训练脚本。
小白一键运行localGPT,和你的本地文档问答
1700多种开源大模型随意部署!一键本地搭建大模型+知识库,不挑环境、不挑配置
【ollama本地知识库】_02-用几句最简单的代码讲清楚文档知识库的实现
ollama如何把gemma模型部署到D盘
Ollama使用离线整合包本地运行大模型LLama3 8B 和Phi-3 mini 4k
支持任何网页的100%本地化知识库 | ChatOllama又更新啦!
轻松搭建本地大模型 Web 交互界面 - Ollama + Open WebUI
[MaxKB+Ollama+Llama 3]最低成本构建AI私有知识库,在线客服、内部知识教学解答等方案
ollama模型目录地址切换,C盘切换其他盘符小技巧
Ollama导入GGUF文件
文件读取、网页抓取都能行?告诉你更多使用 open webui 和 ollama 的小技巧
【保姆级教程】使用ChatGLM3-6B+oneAPI+Fastgpt+LLaMA-Factory实现本地大模型微调+知识库+接口管理
【AI主播-LLM篇】Ollama + AnythingLLM,有手就行本地知识库+LLM 组合拳,小白福音
简单几步微调Llama3变身中文大模型,PDF清洗数据集并用Ollama和LM Studio加载微调好的大模型
ChatOllama更新啦!| 基于Ollama的100%本地化多文档知识库功能上线 - 附源码解析
Ollama + LangChain 实现本地运行 Llama 2
【超详细】纯本地部署的FastGPT知识库教程(基于ChatGLM3+m3e+oneapi)
揭秘Ollama: 20个问题带你从零到精通
Docker容器化ChatOllama | 一键运行100%本地RAG应用
基于Ollama实现100%本地化RAG应用 - ChatOllama
中文大模型,本地运行!
基于LangChain高级RAG技术的本地知识库 - Chroma向量存储 + Redis文档存储 | ChatOllama升级
EP4 Ollama + AnythingLLM 解读本地文档 构建私有知识库
ChatOllama又更新啦!| 基于Ollama的100%本地化知识库现在支持多种文件类型