V
主页
测试Yi-1.5-34B-Chat
发布人
8卡魔改2080ti vllm0.42 原生非量化版本,下载地址:https://modelscope.cn/models/01ai/Yi-1.5-34B-Chat/summary 测试软件:https://github.com/hanckjt/openai_api_playground
打开封面
下载高清视频
观看高清视频
视频下载器
万元预算本地流畅跑Qwen1.5_72B AWQ
智普最新开源大模型GLM-4-9b-chat
Yi 34B Chat 200K 长文翻译
AMD RX 7900 xtx :Ollama run Yi:9b-chat-v1.5-fp16
Ollama 推理Yi 9B本地大模型: 沉浸式翻译, 阅读原版英文书籍
古董GTX1080显卡跑Yi:9b chat-v1.5-Q4_K_M
李开复透露「GPT5训练遇到困难,O1模型被迫放出来」OpenAI还有很多私货没有发布
Yi34B200K做十万字油管字幕摘要
李开复透露:GPT-5训练受阻,OpenAI仍有大量先进技术未发布
大模型在线API速度测试:DeepSeek,Yi
8卡魔改2080ti跑Qwen1.5 72B int8速度测试
8卡魔改2080ti跑Qwen1.5 72B int4速度测试
FastGPT+Qwen1.5_72B 搭建本地翻译智能体
低成本运行通义千问72B,实现高效高质翻译任务,媲美GPT4
通义千问1.5 72B 本地部署,28K英文内容做摘要
八块魔改2080ti显卡跑llama-3-70b-instruct-GPTQ
即刻体验极致翻译 - Bob软件集成多AI大模型,实时对比选优
中文版LLAMa3 70B,性能强化,零损耗,震撼登场!
在本地环境中运行大模型LLAMA3-1-70B,支持128k超长上下文
单卡魔改2080ti跑Qwen1.5 14B AWQ速度测试
3万字长文摘要:通义千问32B模型的长文本实力展示
八块魔改2080ti显卡满血跑Mixtral-8x22B-Instruct-v0.1-AWQ
2080ti单卡运行Ollama:并发Llama3模型与多模型加载推理
FastGPT+Qwen32B=翻译工作流智能体
Qwen2 72B Instruct 全量模型本地运行实测
单卡2080Ti跑通义千问32B大模型(ollama和vllm推理框架)
AI千亿参数大模型C4ai-Command-R-plus本地测试
八块魔改2080ti上跑两个通义千问72B,效率翻倍,瞬时翻译,精准即达
本地AI大模型PDF多语言翻译
8卡魔改2080ti版驱动通义千问,72Bint8展现30K上下文的强大语言处理能力
能力挑战:指令遵循与文本核心语句定位
单2080ti魔改22G显卡Ollama试运行Llama3 8B
Roon+Qobuz+Tidal播放体验
"通义千问"110B大模型助力无障碍阅读英文原版书籍
史上最伟大的音乐串流服务提供商(适用于Spotify、Tidal、Deezer等等)
在本地环境中直接运行未经量化的全尺寸模型:Smaug-Llama-3-70B
iFi/悦尔法 NEO Stream Tidal Connect播放
通义千问110B本地8卡魔改2080ti推理速度测试报告
四块魔改2080ti显卡跑llama-3-70b-instruct-awq
AMD 7900XTX: Ollama本地运行LLama 3和Qwen大模型