V
主页
本地运行通义千问32B!不吃配置保护隐私,可兼容AMD显卡或纯CPU
发布人
LM Studio官网:https://lmstudio.ai 魔搭社区通义千问:https://modelscope.cn/organization/qwen
打开封面
下载高清视频
观看高清视频
视频下载器
部署本地大模型和知识库,最简单的方法
5分钟学会微调大模型Qwen2
通义千问2.5全系升级:模型使用及API调用
5分钟搭建一个通义千问等大语言模型在自己电脑上,随时访问
通义千问支持千万字长文档处理能力
真香警告!原来这个工具这么好用——通义听悟
通义千问之办公提效
在手机上运行通义千问和ChatGLM2!!!命令在简介!!!
千问Qwen2 7B模型8g显存运行效果,23Token/s
Qwen1.5-32B 多卡推理
通义千问Qwen1.5-32B发布,实际体验能追上ChatGPT吗?
在服务器上部署通意千问Qwen-7B开源大模型
本地革新!两块2080ti魔改显卡驱动32B通义千问,VLLM框架解锁翻译新速度
qwen2 大语言模型发布了,具体如何本地安装部署,和 1100 亿参数 130G 大小的阿里千问1.5差距如何?
【实战教程】5分钟快速搭建本地 FastAPI 服务,无缝对接 18B 参数通义千问大模型!
通义千问 vs 讯飞星火 vs Kimi,到底谁强谁弱?
国产大模型通义千问3分钟快速做一篇PPT,效果不输ChatGPT
【人生信息处理系统】2024年了,别再吃信息差的苦!用通义搭建效率体系,提升10倍信息处理速度~
第1课-认识和注册【通义千问入门到进阶教程】
低成本运行通义千问72B,实现高效高质翻译任务,媲美GPT4
手机安装阿里通义千问离线大模型: 可以在手机上运行的私有化大模型的项目,飞行模式下实测安卓一次成功
阿里云正式发布通义千问2.5,并开源通义千问1100亿参数模型
实测对比Kimi,通义千问,司马阅等产品文档解读能力!
英伟达4090实测通义千问Qwen-72B-Chat 模型性能
将本地知识库和AI大模型,接入微信,实现微信内的AI智能客服,使用更方便,体验更好
千问2-1.5B大模型本地部署
阿里开源通义千问模型运行要多少GPU内存?
Llama 3.1 一键本地部署!Meta 最强开源大模型,100%保证成功,无需GPU也能运行,可离线使用 | 零度解说
iPhone本地运行通义千问大模型【LLM Farm】
Qwen2-Vl本地整合包,AI视频理解,AI图片理解,千问2视觉模型测试,基于视频的问答、对话、内容创作等方式理解20分钟以上的视频
👑👑👑最强Ai训练主机居然是双卡A6000有96GB显存🤖🤖🤖
私有化部署AI模型成本分析,通义千问720亿参数,qwen1.5-72B-chat模型部署
单卡2080Ti跑通义千问32B大模型(ollama和vllm推理框架)
本地运行通义千问72B!兼容AMD显卡或纯CPU【LM Studio】
魔搭 通义千问-14B-chat AutoDL 自己租 GPU 进行本地部署 并对外提供 API 服务
全民AI时代:手把手教你用Ollama & AnythingLLM搭建AI知识库,无需编程,跟着做就行!
Qwen2本地部署和接入知识库 支持N卡/A卡/纯CPU
Kimi大模型,居然能直接在Word中使用!这下写文档太方便了,哪儿需要写哪里!
[ESP32]:接入通义千问
通义千问开源Qwen1.5-32B 模型对比14B、72B性能如何?