V
主页
Ollama 0.1.26 让嵌入提升100倍
发布人
https://www.youtube.com/watch?v=Ml179HQoy9o 在 Ollama 里,嵌入一直存在,但直到 0.1.26 版本它才变得可用。现在它棒极了,可能是完成这项工作的最佳工具。 是的,我知道关于面包那句我搞砸了。它不是 js 的替代品,而是一个全新的运行时,面向 js/ts。这让 TypeScript(一个更好的 JavaScript)变得更优秀。
打开封面
下载高清视频
观看高清视频
视频下载器
ChatOllama又更新啦!| 基于Ollama的100%本地化知识库现在支持多种文件类型
Anything LLM+Ollama 知识本地库
手机运行 ollama 及微软 phi3 3.8B 模型成功
当 crewAI 遇到了 ollama
Open-Webui最新版本的一键整合包
4060Ti 16G显卡安装运行Llama3-8B-instruct大语言模型
将本地知识库和AI大模型,接入微信,实现微信内的AI智能客服,使用更方便,体验更好
感谢小扎开源 llama3本地离线文档分析用上了
ChatOllama更新啦!| 基于Ollama的100%本地化多文档知识库功能上线 - 附源码解析
超强知识库软件MaxKB真的可以提高效率
Windows下中文微调Llama3,单卡8G显存只需5分钟,可接入GPT4All、Ollama实现CPU推理聊天,附一键训练脚本。
揭秘Ollama: 20个问题带你从零到精通
EP4 Ollama + AnythingLLM 解读本地文档 构建私有知识库
ollama+webui+SD功能大整合
llama3自主构建中文训练集(dataset),中文写作模型数据集,fine-tuning,llama3微调训练
中文配音-llama-3+Ollama实现本地函数调用 Local Function Calling with Llama3 using Ollama and
【 Ollama + Open webui 】 这应该是目前最有前途的大语言LLM模型的本地部署方法了。提升工作效率必备!_ Llama2 _ Gemma _
如何选取RAG中的embedding模型
ollama部署中文llama3
「Github一周热点」最好用的本地大模型运行工具、开源CRM和LLM微调框架等5个火爆项目!
Dify搭建本地知识库真的太好用了!
如何在LM Studio中的Flash Attention能提升多少性能?
🌈 Ollama发布重大更新 | 支持多请求并发,多模型加载啦!💥 | ChatOllama并发多模型聊天来啦!
【13B大模型无用】大家不需要用自己的8G显存跑大模型了,没意义,70B也许成,我试试
Ollama+AnythingLLM搭建私有知识库
vscode中最强编程助手,无需显卡使用llama3-70B模型赋能
Llama3中文微调版,配套Open-UI打造个人知识库
快速搭建本地免费知识库
LLaMA 3 未删减版 🥸它能回答任何问题
从传统RAG到GraphRAG
无限上下文 无穷注意力 RAG好像要废
M3 max 48g 跑Llama3 70b 4bit
当Ollama遇上AutoGen Studio, AI自动化办公雏形
LobeHub篇:本地部署开源模型实现本地AI对话 体验超级棒
使用LLama3和Qwen最新大模型,可视化搭建知识库工作流!
一种诱导kimi说出其系统命令的方式
在VSCode中使用AI(Llama3 Copilot)协助编程 免费好用,生产力爆满
在使用Llama3与DSPy之前,你应该检查的事项。
让命令行具备智能感知功能:注入AI(LLM)到终端
微软最新项目:具备人工智能通用性潜力的AI机器人(Sanctuary AI合作项目)