V
主页
八块魔改2080ti显卡跑WizardLM-2-8x22B-AWQ
发布人
可以运行64k上下文 模型地址: https://hf-mirror.com/MaziyarPanahi/WizardLM-2-8x22B-AWQ/ 对本地搭建有兴趣的可以参考:https://www.bilibili.com/read/readlist/rl823654
打开封面
下载高清视频
观看高清视频
视频下载器
八块魔改2080ti显卡满血跑Mixtral-8x22B-Instruct-v0.1-AWQ
八块魔改2080ti显卡跑llama-3-70b-instruct-GPTQ
四块魔改2080ti显卡跑llama-3-70b-instruct-awq
单2080ti魔改22G显卡Ollama试运行Llama3 8B
本地革新!两块2080ti魔改显卡驱动32B通义千问,VLLM框架解锁翻译新速度
单卡2080Ti跑通义千问32B大模型(ollama和vllm推理框架)
8卡魔改2080ti跑Qwen1.5 72B int8速度测试
万元预算本地流畅跑Qwen1.5_72B AWQ
本地AI大模型PDF多语言翻译
八块魔改2080ti上跑两个通义千问72B,效率翻倍,瞬时翻译,精准即达
4080显卡Fooocus闪速画图
8卡魔改2080ti跑Qwen1.5 72B int4速度测试
单卡魔改2080ti跑Qwen1.5 14B AWQ速度测试
8卡魔改2080ti版驱动通义千问,72Bint8展现30K上下文的强大语言处理能力
Langchain下的GraphRag与DBGPT对比(一)
中文版LLAMa3 70B,性能强化,零损耗,震撼登场!
智普最新开源大模型GLM-4-9b-chat
通义千问110B本地8卡魔改2080ti推理速度测试报告
能力挑战:指令遵循与文本核心语句定位
杜克大学|机器学习运维|DevOps/DataOps、Azure、MLFlow和抱脸|MLOps | Machine Learning Operations
在本地环境中运行大模型LLAMA3-1-70B,支持128k超长上下文
Qwen2 72B Instruct 全量模型本地运行实测
FastGPT+Qwen32B=翻译工作流智能体
AI千亿参数大模型C4ai-Command-R-plus本地测试
新一代o1大模型,性能接近理科博士水平,简直炸裂!
杜克大学《MLOps | 机器学习运维(Python基础)|MLOps | Machine Learning Operations》
古董GTX1080显卡跑Yi:9b chat-v1.5-Q4_K_M
2080ti单卡运行Ollama:并发Llama3模型与多模型加载推理
Roon+Qobuz+Tidal播放体验
低成本运行通义千问72B,实现高效高质翻译任务,媲美GPT4
FastGPT+Qwen1.5_72B 搭建本地翻译智能体
Yi 34B Chat 200K 长文翻译
网友700块赌电源爆炸烧坏的2080ti 结局竟让人….
怎么做出30万美金的音箱
AMD 7900XTX: Ollama本地运行LLama 3和Qwen大模型
软路由iStore系统Docker方式安装罗技音乐服务器LMS且挂载115网盘
实体遥控器掌握全局,轻松便捷地控制数播操作
测试Yi-1.5-34B-Chat
TeslaP4跑LLAMa3,尝试英文翻译任务来测试中文能力
即刻体验极致翻译 - Bob软件集成多AI大模型,实时对比选优