V
主页
京.东618红包,每天可领3次
测试Yi-1.5-34B-Chat
发布人
8卡魔改2080ti vllm0.42 原生非量化版本,下载地址:https://modelscope.cn/models/01ai/Yi-1.5-34B-Chat/summary 测试软件:https://github.com/hanckjt/openai_api_playground
打开封面
下载高清视频
观看高清视频
视频下载器
从0.5B到340B的LLM都需要多少显存?
智普最新开源大模型GLM-4-9b-chat
Yi 34B Chat 200K 长文翻译
AI千亿参数大模型C4ai-Command-R-plus本地测试
Ollama 推理Yi 9B本地大模型: 沉浸式翻译, 阅读原版英文书籍
万元预算本地流畅跑Qwen1.5_72B AWQ
古董GTX1080显卡跑Yi:9b chat-v1.5-Q4_K_M
通义千问1.5 72B 本地部署,28K英文内容做摘要
8卡魔改2080ti跑Qwen1.5 72B int8速度测试
即刻体验极致翻译 - Bob软件集成多AI大模型,实时对比选优
Yi34B200K做十万字油管字幕摘要
大模型在线API速度测试:DeepSeek,Yi
FastGPT+Qwen1.5_72B 搭建本地翻译智能体
AMD RX 7900 xtx :Ollama run Yi:9b-chat-v1.5-fp16
Suno.ai:AI音乐革命,创作你的独特旋律!
8卡魔改2080ti跑Qwen1.5 72B int4速度测试
中文版LLAMa3 70B,性能强化,零损耗,震撼登场!
2024智源大会 零一万物 黄文灏 模型训练方法论及Yi-Large的实践
精准翻译之道:融合智能体、专业知识库与工作流的高效流程构建
低成本运行通义千问72B,实现高效高质翻译任务,媲美GPT4
FastGPT+Qwen32B=翻译工作流智能体
八块魔改2080ti显卡满血跑Mixtral-8x22B-Instruct-v0.1-AWQ
四块魔改2080ti显卡跑llama-3-70b-instruct-awq
单卡2080Ti跑通义千问32B大模型(ollama和vllm推理框架)
能力挑战:指令遵循与文本核心语句定位
8卡魔改2080ti版驱动通义千问,72Bint8展现30K上下文的强大语言处理能力
迷你语音识别控制器
单卡魔改2080ti跑Qwen1.5 14B AWQ速度测试
八块魔改2080ti显卡跑WizardLM-2-8x22B-AWQ
Qwen2 72B Instruct 全量模型本地运行实测
2080ti单卡运行Ollama:并发Llama3模型与多模型加载推理
单2080ti魔改22G显卡Ollama试运行Llama3 8B
3万字长文摘要:通义千问32B模型的长文本实力展示
在本地环境中直接运行未经量化的全尺寸模型:Smaug-Llama-3-70B
2024第三届AIGC中国开发者大会:多模态大模型的发展与趋势(零一万物联合创始人潘欣)
"通义千问"110B大模型助力无障碍阅读英文原版书籍
《想念拟人化》孟慧圆——HiFi播放
八块魔改2080ti显卡跑llama-3-70b-instruct-GPTQ
Roon+Qobuz+Tidal播放体验
4080显卡Fooocus闪速画图