V
主页
「官方教程」GLM-4-9B 实战部署和微调
发布人
自 2023 年 3 月 14 日开源 ChatGLM-6B 以来,GLM 系列模型受到广泛关注和认可。特别是 ChatGLM3-6B开源以后,开发者对智谱AI 第四代模型的开源充满期待。 为了使小模型(10B 以下)具备更加强大的能力,GLM 技术团队进行了大量探索工作。经过近半年的探索,我们推出了第四代 GLM 系列开源模型:GLM-4-9B。 在预训练方面,我们引入了大语言模型进入数据筛选流程,最终获得了 10T 高质量多语言数据,数据量是 ChatGLM3-6B 模型的 3 倍以上。同时,我们采用了 FP8 技术进行高效的预训练,相较于第三代模型,训练效率提高了 3.5 倍。在有限显存的情况下,我们探索了性能的极限,并发现 6B 模型性能有限。因此,在考虑到大多数用户的显存大小后,我们将模型规模提升至 9B,并将预训练计算量增加了 5 倍。 综合以上技术升级和其他经验,GLM-4-9B 模型具备了更强大的推理性能、更长的上下文处理能力、多语言、多模态和 All Tools 等突出能力。GLM-4-9B 系列模型包括:基础版本 GLM-4-9B(8K)、对话版本 GLM-4-9B-Chat(128K)、超长上下文版本 GLM-4-9B-Chat-1M(1M)和多模态版本 GLM-4V-9B-Chat(8K)。 GitHub仓库链接:https://github.com/THUDM/GLM-4 本期分享嘉宾:@zR_ZYX
打开封面
下载高清视频
观看高清视频
视频下载器
【保姆级教程】6小时掌握开源大模型本地部署到微调,从硬件指南到ChatGLM3-6B模型部署微调实战|逐帧详解|直达技术底层
单卡 4090 部署智谱 GLM-4-9B-Chat,30s 极速体验!
GLM-4-Flash全面免费,0成本打造你的AI梦工厂!
【13B大模型无用】大家不需要用自己的8G显存跑大模型了,没意义,70B也许成,我试试
Qwen2很好,但我选GLM4
双4090部署qwen72b大模型 每秒150tokens
部署本地大模型和知识库,最简单的方法
大模型微调实践:动手微调一个好玩/好用的大模型
大语言模型虎扑评分,你最常用哪个?Chatgpt4!【虎扑锐评】
为什么打工人和学生党都爱用智谱清言?GLM4是真的强!
【ChatGLM】本地版ChatGPT?6G显存可用!ChatGLM-6B 清华开源模型一键包发布 可更新
【2024最新版】ChatGLM一站式微调整合包(附整合包),一键激活,永久免费,ChatGLM一站式本地部署下载安装教程!
4070 Ti Super微调大模型GLM4,定制化大模型输出
一键部署本地私人专属知识库,开源免费!可接入GPT-4、Llama 3、Gemma、Kimi等几十种大模型.。
清华智谱chatglm4-9b-chat和qwen2-7b-chat哪个更强?
【官方来源】看看neo4j官方如何使用大模型构建知识图谱和可视化交互
【ChatGLM3】最强的离线开源版ChatGPT,一键部署,解压即用
qwen大模型地部署和微调法律大模型(只需5G内存)
爱鼓捣AI排行榜2:Qwen2, GLM-4谁更能打?
从0.5B到340B的LLM都需要多少显存?
Windows下中文微调Llama3,单卡8G显存只需5分钟,可接入GPT4All、Ollama实现CPU推理聊天,附一键训练脚本。
Qwen2本地部署和接入知识库 支持N卡/A卡/纯CPU
最新Qwen2大模型环境配置+LoRA模型微调+模型部署详细教程!真实案例对比GLM4效果展示!
【实战】通义千问1.8B大模型微调,实现天气预报功能
本地跑大模型,需要什么配置
Qwen2大模型保姆级部署教程,快速上手最强国产大模型
如何给大模型喂数据?让AI更懂你~【小白科普】
Agent开发大提速!深度体验GLM-4-alltools智能API,激活开发者潜能
用GLM 4v + Chat TTS实现给大模型加上视觉和声音
最新开源大语言模型GLM-4模型详细教程—环境配置+模型微调+模型部署+效果展示
「清影」人人能用的AI视频来了!
本地部署 Glm4-9B
本地微调Llama3开源大模型!用自己的知识库打造自己的专属大模型!老旧显卡也能跑得动大模型微调!
GraphRAG太烧钱?Qwen2-7b本地部署GraphRAG,无需Ollama,从环境搭建到报错解决全流程
ChatGLM与ChatGPT什么区别??
【全站首发】Langchain-Chatchat 0.3版本 全新架构 重大升级
安装Whisper、GLM-4、ChatTTS打造你的智能语音助手
Agent丨工作流
GLM-4-Voice:国内首个端到端语音模型
1700多种开源大模型随意部署!一键本地搭建大模型+知识库,不挑环境、不挑配置