V
主页
【ollama】(6):在本地使用docker-compose启动ollama镜像,对接chatgpt-web服务,配置成功,可以进行web聊天了,配置在简介里
发布人
【ollama】(6):在本地使用docker-compose启动ollama镜像,对接chatgpt-web服务,配置成功,可以进行web聊天了,配置在简介里面 项目地址: https://gitee.com/fly-llm/ollama-chatgpt-web 给ollama增加web 界面。 文章地址: https://blog.csdn.net/freewebsys/article/details/136724925
打开封面
下载高清视频
观看高清视频
视频下载器
Ollama 电脑本地大模型部署实操教学演示,docker安装超详细版
【ollama】(5):在本地使用docker-compose启动ollama镜像,并下载qwen-0.5b模型,速度飞快
pythonstock开源股票系统(1):概要介绍/说明,使用docker-compose本地运行启动,初始化数据库,可以进行web展示
【ollama】(3):在linux搭建环境中,安装ollama工具,并且完成启动下载gemma:7b和qwen:1.8b运行速度飞快,支持http接口和命令行
【ai技术】(3):树莓派4,成功安装ollama软件,内存4G,安装命令行版本,使用raspi-config配置wifi,速度9 t/s
【ollama】(7):使用Nvidia Jetson Nano设备,成功运行ollama,运行qwen:0.5b-chat,速度还可以,可以做创新项目了
【ollama 下载安装】我看看是谁还没有自己的大模型,快来拥有自己的免费本地私有大模型服务吧!
【喂饭教程】ollama+Dify快速搭建本地知识库,免费、零成本、无限制、保护隐私、无需网络~小白入门必看的保姆级教程!
【ai技术】(4):在树莓派4上,使用ollama部署qwen0.5b大模型+chatgptweb前端界面,搭建本地大模型聊天工具,速度飞快
使用Ollama在本地搭建自己的AI私人助理
在AutoDL上,使用4090显卡,部署ChatGLM3API服务,并微调AdvertiseGen数据集,完成微调并测试成功!
使用docker本地运行chatglm3,原生支持工具调用(Function Call)、代码执行(Code Interpreter)和 Agent 任务
【xinference】(14):在compshare上,使用nvidia-docker方式,成功启动推理框架xinference,并运行大模型,非常简单方便
推荐国内使用hub.atomgit.com下载docker镜像,速度快,镜像经过安全扫描,常用的开发工具,软件都有啦!
Ollama+Open WebUi Ollama及其模型的部署,环境变量和迁移,导入第三方模型,调用GPU运行Ollama模型,模型UI WebUi的部署
ollama+dify实现本地模型部署和本地知识库搭建
【ollama】(2):在linux搭建环境,编译ollama代码,测试qwen大模型,本地运行速度飞快,本质上是对llama.cpp 项目封装
终于弄明白FastChat服务了,本地部署ChatGLM3,BEG模型,可部署聊天接口,web展示和Embedding服务!
ollama+vscode+continue=离线AI辅助编程生产力
anythingllm+ollama搭建自己本地AI知识库
【Dify知识库】(2):开源大模型+知识库方案,Dify+fastchat的BGE模型,可以使用embedding接口对知识库进行向量化,绑定聊天应用
【xinference】(9):本地使用docker构建环境,一次部署embedding,rerank,qwen多个大模型,成功运行,非常推荐
【ollama】(4):在autodl中安装ollama工具,配置环境变量,修改端口,使用RTX 3080 Ti显卡,测试coder代码生成大模型
颠覆传统编程,超越Cursor!Claude Dev最强编程AI智能体!支持ollama和GitHub models!一条prompt实现全自动游戏开发!
【LocalAI】(3):超级简单!在linux上使用一个二进制文件,成功运行embeddings和qwen-1.5大模型,速度特别快,有gitee配置说明
[教程]本地部署Ollama结合ComfyUI实现AI绘画
可能是最干净好看好用的本地音乐播放器
flux加ollama中文一句话自动写提示词
【ollama】(1):本地运行大型语言模型(LLM)的新利器,本地运行qwen2-1.5B大模型
Gorse Go 推荐系统引擎,可以使用docker-compose本地运行,github有8.5k星
【Dify知识库】(9):使用Docker镜像打补丁方式,解决Dify0.4.7版本,支持MySQL数据库。解决统计查询问题,演示Dify0.4.7版本功能
秋招看过来!自制大模型推理框架项目-动手实现LLama模型中的多头注意力机制
【LocalAI】(1):localai项目学习,通过使用docker形式,使用golang+grpc的方式实现本地大模型运行
【Dify知识库】(3):开源大模型+知识库方案,使用Dify配置智谱AI的key,可以进行聊天和知识库问答,效果更好。
【实战教程】5分钟快速搭建本地 FastAPI 服务,无缝对接 18B 参数通义千问大模型!
首席情报官wiseflow完整版
【大模型知识库】(2):开源大模型+知识库方案,docker-compose部署本地知识库和大模型,毕昇+fastchat的ChatGLM3,BGE-zh模型
开学在即基于MiGPT + ollama + gtp-sovits为小孩打造一个虚拟班主任
AI应用-本地部署LLM+TTS+ASR实现语音面试对话
Alist网盘挂载到本地目录访问/本地挂载/网盘挂载/rclone使用教程