V
主页
【Open WebUI+Ollama/vLLM+CosyVoice+Whisper】终极个人聊天互动机器人-环境部署及成果展示
发布人
终极个人聊天互动机器人-环境部署及成果展示 Slide: https://docs.google.com/presentation/d/1YCs3vqE0RYY_TNSX709R0TPDArub0I913l7Xjz8lD3A/edit?usp=sharing vLLM: pip install vllm https://github.com/vllm-project/vllm Cosyvoice: Follow README.md https://github.com/FunAudioLLM/CosyVoice https://github.com/BiboyQG/bob-cosyvoice Open WebUI: Follow README.md https://github.com/open-webui/open-webui
打开封面
下载高清视频
观看高清视频
视频下载器
ollama+open-webui_知识库+多模态+文生图功能详解
【vLLM+Sensevoice+Cosyvoice】本地部署大语言模型+ASR+TTS实现个人智能助手功能-环境部署及成果展示
搭建自己的语音对话大模型 | ASR+LLM+TTS串联
Ollama+AnythingLLM搭建私有知识库
安装Ollama+CosyVoice打造流式智能语音秘书,流式生成语音大大缩短了等待时间,提升用户体验
如何用 faster-whisper 做一个超低延迟语音聊天机器人
OpenWebUI+Ollama部署教程(非Docker)【AI配音】
ChatOllama又更新啦!| 基于Ollama的100%本地化知识库现在支持多种文件类型
【8月最新】5min部署 最强AI语音聊天+酒馆角色扮演+QQ机器人,全新角色扮演语音聊天QQ机器人
【Open WebUI+Ollama/vLLM+CosyVoice+Whisper】终极个人聊天互动机器人-功能演示篇
【喂饭教程】ollama+Dify快速搭建本地知识库,免费、零成本、无限制、保护隐私、无需网络~小白入门必看的保姆级教程!
文件读取、网页抓取都能行?告诉你更多使用 open webui 和 ollama 的小技巧
安装开源的CosyVoice三秒完美复刻声音(TTS)
Ollama+OpenWebUI本地部署教程,畅玩上万个开源大模型
Windows下中文微调Llama3,单卡8G显存只需5分钟,可接入GPT4All、Ollama实现CPU推理聊天,附一键训练脚本。
Cosyvoice刘悦整合包 微软超自然语音 Gpt-sovits chat tts 哪个更好 众多TTS如何取舍
第二代GPT-SoVITS 更大更强!只需1分钟语音,完美声音克隆!在线一键使用,支持中日英韩粤语
安装开源的SenseVoice实现比Whisper更快更精准的语音转文字
4060Ti 16G显卡安装Ollama+ChatTTS打造智能语音秘书(突破30秒限制)
【AI音色克隆】超强音色克隆CosyVoice,全网最详细本地安装教程+入门使用!手把手教你克隆声音! | AI声音 | 音色克隆
本地部署OmniParser微软最强开源屏幕解析模型!最强开源屏幕解析工具,面向纯视觉的GUI代理!实现用户界面截图解析为结构化数据!pyautogui自动点击
轻松搭建本地大模型 Web 交互界面 - Ollama + Open WebUI
【vLLM+Cosyvoice】本地部署大语言模型+TTS实现个人智能助手功能-成品预览
【干货分享】CosyVoice手摸手教程,附有一键整合包,让你轻松掌握目前最火热的AI语音克隆、AI语音生成项目,亲测效果比ChatTTS好一丢丢
【AI大模型】使用Ollama+Dify搭建一个专属于自己的知识库!支持多种文件类型,本地部署大模型,效果出奇的好!
用 llama3 和 whisper 大模型搭建语音助手, 使用whisper.cpp项目及C++调用Windows原生tts_科技杂谈
ollama+webui+SD功能大整合
vLLm: 大模型LLM快速推理的神器, llama2秒级完成推理不用再等待
【 Ollama + Open webui 】 这应该是目前最有前途的大语言LLM模型的本地部署方法了。提升工作效率必备!_ Llama2 _ Gemma _
EP4 Ollama + AnythingLLM 解读本地文档 构建私有知识库
手把手教你使用Ollama怎么在本地部署AI开源大模型
使用ollama部署大模型并映射到公网API调用01
开启open-webui:一键集成ollama,打造革命性GPT体验!
CosyVoice+TTS Server+开源阅读,打造最强AI听书组合!6G显存可跑!
揭秘Ollama: 20个问题带你从零到精通
本地大模型启动openai服务的N种方式,vllm,fastchat,llama factory,llama.cpp,ollama
【AI主播-LLM篇】Ollama + AnythingLLM,有手就行本地知识库+LLM 组合拳,小白福音
本地部署Molmo-7B多模态大模型媲美Llama3.2-90B!全方位测评:图像识别、视频分析,打造多模态视觉AI助手!轻松实现监控视频快速找人
ollama vs vllm - 开启并发之后的 ollama 和 vllm 相比怎么样?
大模型本地部署介绍---vllm和llama.cpp