V
主页
京东 11.11 红包
什么是大模型量化和蒸馏?
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
大模型量化部署 解析当前应用较广的几种量化部署方案!
深度学习模型压缩方法(一):模型蒸馏
知识蒸馏:小模型向大模型学习
传统AI与基于大模型AI之间的区别
知识图谱介绍|构建方法|Graph RAG|多模态知识图谱
为什么需要智能体(Agent)
大模型RAG企业项目实战:手把手带你搭建一套完整的RAG系统,原理讲解+代码解析,草履虫都能学明白!LLM大模型_RAG_大模型微调_多模态
神经网络-量化与部署,进阶之路迟早要越过的大山
深度学习模型压缩方法(三):量化
如何知道一个大模型在推理和训练时需要多少显存?
什么是混合专家模型(MoE)?
模型压缩架构和流程介绍!量化/剪枝/蒸馏/二值化4件套!【推理系统】模型压缩第01篇
什么是大模型幻觉?为什么会产生幻觉?
深度学习模型压缩方法(二):剪枝
动手学RAG:Part1 什么是RAG?
【精读AI论文】知识蒸馏
理解向量数据库与文本向量检索效率
模型量化一:量化基础 对称量化 非对称量化 极大值量化 零点量化
什么是端到端(End-to-End)模型?
通俗易懂理解自注意力机制(Self-Attention)
模型量化六:QLoRA 4bit 量化 NormalFloat4 量化
大模型项目选择RAG还是微调:八个判断依据
什么是知识图谱?与大模型的关系是什么?
吴恩达《深入模型量化|Quantization in Depth》中英字幕
大模型量化一网打尽(一)理论基础
什么是模型量化model quantization, 推荐一个用AI做PPT目前最好的工具
模型量化加速
模型推理时所需的GPU显存
什么是模型的泛化能力?
Andrej Karpathy:大模型10亿参数就够了,蒸馏技术效果非常好!
通俗易懂理解大模型预训练和微调
第二十课:MoE
微调一个模型需要多少GPU显存?
大模型成功背后的RLHF到底是什么?
大模型项目落地中的五个坑
什么是In-context learning
终于拿到H100服务器了,现场拆机给网友学习,这次算是长见识了
大模型量化是怎么实现的——transformers源码解读
如何把RAG和知识图谱结合
知识蒸馏Pytorch代码实战