V
主页
【大模型部署】- Ollama部署Qwen2及llama.cpp补充
发布人
🎋 Ollama极速部署工具介绍及对llama.cpp内容的补充 🎮 相关代码和数据:https://github.com/echonoshy/cgft-llm
打开封面
下载高清视频
观看高清视频
视频下载器
【大模型量化】llama.cpp轻量化模型部署及量化
部署本地大模型和知识库,最简单的方法
双4090部署qwen72b大模型 每秒150tokens
Windows下中文微调Llama3,单卡8G显存只需5分钟,可接入GPT4All、Ollama实现CPU推理聊天,附一键训练脚本。
llama.cpp 源码解析-- CUDA版本流程与逐算子详解
Qwen2很好,但我选GLM4
ollama vs vllm - 开启并发之后的 ollama 和 vllm 相比怎么样?
大模型本地部署介绍---vllm和llama.cpp
大模型量化一网打尽(一)理论基础
【大模型RAG】Graph RAG介绍及ollama本地部署
一键部署本地私人专属知识库,开源免费!可接入GPT-4、Llama 3、Gemma、Kimi等几十种大模型.。
本地部署 通义千问 Qwen2 7B
离线不怕隐私外泄!免费开源 AI 助手 Ollama 从安装到微调,一支影片通通搞定!
Qwen2大模型保姆级部署教程,快速上手最强国产大模型
轻松搭建本地大模型 Web 交互界面 - Ollama + Open WebUI
【大模型部署】vllm部署glm4及paged attention介绍
Qwen2本地部署和接入知识库 支持N卡/A卡/纯CPU
llama3-04 使用llama.cpp进行llama3模型的量化和部署
【ollama】(1):本地运行大型语言模型(LLM)的新利器,本地运行qwen2-1.5B大模型
llama_cpp的pc端部署
AI通用语言模型qwen2本地安装部署教程及注意事项
cpu + gpu 一起运行大模型到底行不行?- 基准测试跑跑看
【大模型微调】使用Llama Factory实现中文llama3微调
揭秘Ollama: 20个问题带你从零到精通
Qwen2新模型,真的很能打吗?
千问Qwen2 7B模型8g显存运行效果,23Token/s
1700多种开源大模型随意部署!一键本地搭建大模型+知识库,不挑环境、不挑配置
qwen2 大语言模型发布了,具体如何本地安装部署,和 1100 亿参数 130G 大小的阿里千问1.5差距如何?
用最简单的方法本地运行新Qwen2大语言模型
Qwen2为何“高分低能”?实测中表现还不如Qwen1.5!
家庭PC本地部署LLama3 70B模型测试,对比70B和8B模型的效果,看看人工智障距离人工智能还有多远
【大模型RAG】使用llama index实现RAG
解锁 AI 代码神器!Qwen 2.5 模型本地部署,Cursor/OpenWebUI,开启无限可能 | 免费 API 推荐及性能对比
强推!Ollama+FastGPT搭建知识库真的太好用了
llama.cpp大神实现投机采样,让大模型推理性能直接翻倍 #小工蚁
vLLM本地部署GLM-4-9b大模型,ChatTTS+AutoGen实现多AI对话转语音!打造AI小说智能体!AI写高考作文
qwen大模型地部署和微调法律大模型(只需5G内存)
GLM4 9B - 环境准备和 vllm 部署
03_多模态_基于llama.cpp进行模型量化和推理
【大模型应用】- Chat TTS有意思的语音生成