V
主页
京.东618红包,每天可领3次
30708G跑清华ChatGLM,对标ChatGPT!
发布人
量化等级INT4
打开封面
下载高清视频
观看高清视频
视频下载器
(vits+ChatGLM)采用清华开源模型ChatGLM的本地化语音聊天
【官方教程】ChatGLM3-6B 部署和微调(Function Call、Code Interpreter、Agent)
花费时间两周半 ChatGLM(清华源)+语音生成+L2D 的对话AI【此号已封】
13b模型已上传!大约需要13G内存~(下载链接在简介,附7b的快速下载地址~)
清华大学开源ChatGLM130B简装版ChatGLM-6B,可进行私人部署,作为中文版ChatGPT与chatGPT的区别
i512400F处理器30708G的显卡玩3A网络游戏型电脑配置挺不错的
AutoGPT你先忙,我先睡觉了
当我把熊猫烧香代码发给ChatGPT会发生什么
基于清华大学开源的ChatGLM搭建属于自己的ChatGPT
RTX4090 ChatGLM性能测试和GLM,ChatGPT对比
ChatGLM2-6B本地部署体验(RTX 4060 Laptop 8G)
AMD显卡的chatGLM部署,绝对不是CPU运算,是真的用显卡跑
ChatGLM在小米10Pro上本地流畅运行(中文大模型)
【chatgpt】只需要7GB显存,ChatGLM官方发布微调技术方案,Prefix-Tuning-V2
【报告】从GLM-130B到ChatGLM:大模型预训练与微调
ChatGLM 部署完体验,这效果真牛逼!—— 斯坦福大学大模型中心评测,GLM-130B 是亚洲唯一入选的大模型👍🏻
当我把过去一年的双色球号码发给chatGPT,它给了我5组号码
使用P-Tuning微调Chatglm2-6B,喂饭级教程
3090单卡5小时,训练自己的专属ChatGPT
在1万3的MacBook Air上跑清华大学ChatGLM6B
“Tesla 计算卡P40 ,使用ChatGLM WebUI教程|”ChatGLM的自我回答过程
【官方教程】ChatGLM2-6B 部署与微调
【重磅】清华ChatGLM对标ChatGPT开源60亿参数-教程见评论区
【重发】当我让GPT读了35W篇研报后…以后再也不用自己读研报了
在花了六位数买显卡训练自己的GPT之后………
中国开源ChatGLM和ChatGPT 差距有多大?
喂养自己的chatGPT,最贵的套餐可以接收2.5w个文档
清华Chatglm2-6b:操作本地化部署注意事项,目前最强的开源中英文大模型,相比初代chatglm6b具有更强多轮对话能力、更长的内容处理能力
NovelAi本地部署 30708G下近1K分辨率输出速度
ChatGLM2-6B喂饭级本地部署指南,同时提供了一键启动整合包,小白用户友好
chatglm2接入群聊,秒变人工智能客服,全程本地操作,小白也能完成
活用AI:用清华大学ChatGLM本地化知识库搜索-20230409_155012
chatglm2一键包,堪比chatgpt
什么显卡能让ChatGPT跑在本地? 计算卡语言模型性能需求分析
【ChatGLM2-6B+联网+思维导图】让ChatGLM拥有 New Bing 的功能
开源GPT加上自己的知识库比ChatGTP更精准更专业
ChatGLM+Langchain构建本地知识库,只需6G显存,支持实时上传文档
自己电脑部署大语言模型!ChatGLM2 + LoRA微调懒人包
【离线猫娘】清华开源ChatGLM 只要6G显存
【AI虚拟主播】本地一键包升级了!ChatGLM+TTS=你自己的虚拟主播!