V
主页
京.东618红包,每天可领3次
用 300 元的显卡推理 Qwen1.5-14B 效果展示
发布人
配套的博客:https://blog.lucien.ink/archives/546 或 https://lucien.blog.csdn.net/article/details/136793257
打开封面
下载高清视频
观看高清视频
视频下载器
最强垃圾王Tesla P40 24GB
双4090部署qwen72b大模型 每秒150tokens
防护做的好,健身没烦恼
4x2080ti 22G 组装低成本AI服务器跑Qwen1.5-110B-int4竟如此丝滑?
22GB不够64GB怎么样?
只要2200元的A100,开箱测试
2080 Ti就能跑70B大模型,上交大新框架让LLM推理增速11倍
小米14安装运行Qwen1.5-14B开源大语言模型(无需联网)
Langchain不适用于生产环境
从零开始手搓一个LLM(一)把参数缩减到足够单卡训练的NanoGPT
4060Ti 16G显卡运行百川2-13B大模型效果
英伟达4090实测通义千问Qwen-72B-Chat 模型性能
小米14安装运行Qwen1.5-7B开源大语言模型(无需联网)
【官方教程】ChatGLM3-6B 部署和微调(Function Call、Code Interpreter、Agent)
【穷训】2W服务器训练7B模型
本地跑大模型,需要什么配置
Valla.ai:将代码逻辑展示为可视化的流程图
Qwen1.5-32B 多卡推理
ChatGLM3-6B 对比 Qwen-14B,到底谁更强?
将Qwen1.5大模型编译成手机可以运行的大模型
通义千问-一起写个agent吧!
AMD显卡使用Ollama本地运行AI大语言模型LLM,增加支持6600/6700系列。
400元无矿的显卡?8G显存性能直逼700+的1660(附魔改教程)
低成本运行通义千问72B,实现高效高质翻译任务,媲美GPT4
家庭PC本地部署LLama3 70B模型测试,对比70B和8B模型的效果,看看人工智障距离人工智能还有多远
【实战】通义千问1.8B大模型微调,实现天气预报功能
试用一种很新的避孕工具
【大模型】个人学习大模型技术需要什么样的电脑配置?
以13B的基座模型击败恐怖如斯的GPT4,北大凭什么?
仅需300块就能拥有秒杀众一线显卡!Tesla P4上手实测,性能远超你想象
A卡/CPU运行大模型+知识库问答绝佳方案【AnythingLLM】
动手学RAG:Part1 什么是RAG?
4060Ti 16G显卡安装Qwen1.5混合专家(MoE)大模型
【CV目标检测】吊打YOLO系列!能检测到所有目标复杂场景的"王者"
私有化部署AI模型成本分析,通义千问720亿参数,qwen1.5-72B-chat模型部署
什么显卡能让ChatGPT跑在本地? 计算卡语言模型性能需求分析
从500涨到1600?真的这么好用?Tesla P40 散热+驱动魔改 保姆级教程
部署本地大模型和知识库,最简单的方法
600元的P100 16G AI画画真香 stable diffusion
[茉卷知识库] 本地部署通义千问 1.5 14B 模型