V
主页
爱鼓捣AI排行榜3:OpenAI限制国内访问会带火Qwen2-72B吗?
发布人
爱鼓捣AI排行榜第三期,发布,一起来看看本周大模型的人气指数有哪些变化。
打开封面
下载高清视频
观看高清视频
视频下载器
双4090部署qwen72b大模型 每秒150tokens
4090逆天的ai画图速度
Qwen2很好,但我选GLM4
部署本地大模型和知识库,最简单的方法
5分钟教会你给本地大模型接入知识库RAG~【小白喂饭级教程】
本地跑大模型,需要什么配置
4060Ti 16G显卡安装Ollama+ChatTTS打造智能语音秘书(突破30秒限制)
如何组装一台4卡4090GPU服务器?一口气看完市面上常见的10种方案
从0.5B到340B的LLM都需要多少显存?
本地运行通义千问72B!兼容AMD显卡或纯CPU【LM Studio】
用 300 元的显卡推理 Qwen1.5-14B 效果展示
在4090上完美运行70B的llama2模型
阿里巴巴最强开源大模型Qwen2.5-72B-Instruct,击败Llama3.1-405B!Qwen2.5+LlamaIndex实现Text to SQL
【全站首发】Langchain-Chatchat 0.3版本 全新架构 重大升级
用72B Qwen2跑一次GraphRAG要多少钱?
本地语言模型个人推荐
家庭PC本地部署LLama3 70B模型测试,对比70B和8B模型的效果,看看人工智障距离人工智能还有多远
【穷训】2W服务器训练7B模型
半块RTX4090 玩转70B大语言模型
国内大模型基本就是靠两个洋雷锋
小显卡玩转大模型,模型分层推理法
4x2080ti 22G 组装低成本AI服务器跑Qwen1.5-110B-int4竟如此丝滑?
【13B大模型无用】大家不需要用自己的8G显存跑大模型了,没意义,70B也许成,我试试
实测2360亿参数的最大开源大模型DeepSeek V2,学生党一样可以玩儿
GraphRAG制作的《凡人修仙传》知识图谱长什么样?
vLLM本地部署GLM-4-9b大模型,ChatTTS+AutoGen实现多AI对话转语音!打造AI小说智能体!AI写高考作文
vLLm: 大模型LLM快速推理的神器, llama2秒级完成推理不用再等待
【大模型】几小时完全从头训练一个仅有26M的小参数GPT,仅需入门显卡即可推理/训练!
22GB不够64GB怎么样?
Windows下中文微调Llama3,单卡8G显存只需5分钟,可接入GPT4All、Ollama实现CPU推理聊天,附一键训练脚本。
怎么加快大模型推理?10分钟学懂VLLM内部原理,KV Cache,PageAttention
如何知道一个大模型在推理和训练时需要多少显存?
Qwen2为何“高分低能”?实测中表现还不如Qwen1.5!
最适合普通人的知识库
爱鼓捣AI排行榜2:Qwen2, GLM-4谁更能打?
ollama vs vllm - 开启并发之后的 ollama 和 vllm 相比怎么样?
核能挑战:8GB显存本地跑Llama 405B
揭秘Ollama: 20个问题带你从零到精通
Claude 3.5 正式发布!直接免费用,力压 GPT-4o!都有哪些新功能?又该如何使用? | 零度解说
视觉大模型大盘点!最人气的十款视觉大模型