V
主页
【LocalAI】(12):本地使用CPU运行LocalAI,piper语音模型已经切换到了hugging faces上了,测试中文语音包成功!
发布人
【LocalAI】(12):本地使用CPU运行LocalAI,测试研究,语音模型已经切换到了hugging faces上了,测试zh_CN-huayan-medium.onnx中文合成成功!! 语音项目: https://github.com/rhasspy/piper 代码配置使用: git clone https://gitee.com/fly-llm/localai-run-llm.git # 开启日志,启动全部模型 docker run -p 8080:8080 -e DEBUG=true --name local-ai -it \ -v `pwd`/aio:/aio -v `pwd`/models:/build/models localai/localai:latest-aio-cpu 博客地址: https://blog.csdn.net/freewebsys/article/details/139028998
打开封面
下载高清视频
观看高清视频
视频下载器
免费文字转语音工具 纯免费 简介里自取
【LocalAI】(11):本地使用CPU运行LocalAI,一次运行5个能力,embedding模型,qwen-1.5-05b模型,生成图模型,语音转文字互转
【LocalAI】(9):本地使用CPU运行LocalAI,一次运行4个大模型,embedding模型,qwen-1.5-05b模型,生成图模型,语音转文字模型
让网页“开口说话”,用JS轻松实现文字转语音
CosyVoice情感语音合成软件整合包及音色模型训练工具下载
一款永久免费且没有限制的文字转语音工具!
【LocalAI】(3):超级简单!在linux上使用一个二进制文件,成功运行embeddings和qwen-1.5大模型,速度特别快,有gitee配置说明
配音免费100%可商用!永久免费配音使用!内置超50+种语言,300款音色效果,文字转语音,简直太良心了~
【LocalAI】(5):在autodl上使用4090Ti部署LocalAIGPU版本,成功运行qwen-1.5-14b大模型,占用显存8G
【xinference】(9):本地使用docker构建环境,一次部署embedding,rerank,qwen多个大模型,成功运行,非常推荐
【xinference】(3):在autodl上,使用xinference部署whisper-tiny音频模型,并成功将语音转换成文本
【LocalAI】(6):在autodl上使用4090部署LocalAIGPU版本,成功运行qwen-1.5-32b大模型,占用显存18G,速度 84t/s
永久免费使用!最新文字转语音配音神器,不限制字数,内置100+种音色,支持win系统使用
pythonstock开源股票系统(2):重新使用vue+elementui做前端页面,实现动态表单,已经连调成功。
【Dify知识库】(12):在autodl上,使用xinference部署chatglm3,embedding,rerank大模型,并在Dify上配置成功
【大模型研究】(10):在autodl上部署语音模型,测试语音识别和语音合成,非常简单方便就测试成功了,机器人语音交互解方案有了
【LocalAI】(7):在autodl上使用4090D部署,成功部署localai-cuda-12的二进制文件,至少cuda版本是12.4才可以,运行qwen
Edge-tts-tool-v1.9.6版本发布,坚持免费,坚持不限字数!
【LocalAI】(10):在autodl上编译embeddings.cpp项目,转换bge-base-zh-v1.5模型成ggml格式,本地运行main成功
吾爱最新出品!免费Ai文字转语音配音工具,内置微软配音接口,体积仅2M不到,剪辑配音工具最新可用
【免费无广】文字一键转语音,安卓iOS双端可用,内置上百主播音源,自媒体必备!!!
pythonstock开源股票系统(1):概要介绍/说明,使用docker-compose本地运行启动,初始化数据库,可以进行web展示
超级强大的免费AI配音神器,支持多人配音,本地就可以直接配音,文字转语音,永久无限制免费使用
天哪😱这几个AI配音文字转语音工具简直是太好用了
【LocalAI】(8):使用LocalAI镜像,本地使用CPU运行stablediffusion组件,可以生成256x256的图片,生产速度较慢
在AutoDL上,使用4090显卡,部署ChatGLM3API服务,并微调AdvertiseGen数据集,完成微调并测试成功!
【wails】(5):经过一段时间的研究,使用wails做桌面应用开发,使用gin+go-chatglm.cpp本地运行大模型,开发接口,在linux上运成功!
MaskGCT一键包,AI声音克隆语音模型,至少需要11G显存,不适合甜品级显卡,TTS,文字转语音,open-mmlab团队开源
【LocalAI】(4):在autodl上使用3080Ti部署LocalAIGPU版本,成功运行qwen-1.5-7b大模型,速度特别快,特别依赖cuda版本
【wails】(3):解决 go-chatglm.cpp 项目部署编译的问题,在Linux本地环境成功运行,可以使用CPU进行模型训练,速度还可以
【大模型机器人】(1):进行性技术调研方案,使用雷神MIX迷你电脑+触摸屏,软件使用本地大模型+数字人+语音转换,技术方案可行
【Dify知识库】(11):Dify0.4.9改造支持MySQL,成功接入yi-6b 做对话,本地使用fastchat启动,占8G显存,完成知识库配置
【candle】(4):使用rsproxy安装rust环境,使用candle项目,成功运行Qwen1.5-0.5B-Chat模型,修改hf-hub下载地址
最新版ChatTTS文字转语音,保姆级教程,免费开源工具,持续更新中
【xinference】(14):在compshare上,使用nvidia-docker方式,成功启动推理框架xinference,并运行大模型,非常简单方便
【candle】(3):安装rust环境,使用GPU进行加速,成功运行qwen的0.5b,4b,7b模型,搭建rust环境,配置candle,下使用hf-mir
MaskGCT - 媲美真人的语音克隆大模型,零样本语音克隆,文本转语音大模型 本地一键整合包下载
【ai技术】(1):发现一个大模型可视化项目,使用nodejs编写的,llm-viz,可以本地运行展示大模型结构。
【wails】(2):使用go-llama.cpp 运行 yi-01-6b大模型,使用本地CPU运行,速度还可以,等待下一版本更新
edge_tts一键包webui,edge_tts访问不了,edge_tts 403,继续薅羊毛,继续白嫖微软,文字转语音,TTS,免费