V
主页
知识蒸馏:小模型向大模型学习
发布人
介绍各类知识蒸馏方法,实现从大模型学习获得小模型。
打开封面
下载高清视频
观看高清视频
视频下载器
知识蒸馏 代码精讲|Distilling the Knowledge in a Neural Network
深度学习模型压缩方法(一):模型蒸馏
白话知识蒸馏
大模型和小模型的区别是什么?
模型压缩-剪枝,蒸馏与量化
灵魂发问:知识蒸馏真的有用吗?
YOLOV8无损涨点方案-知识蒸馏
大模型和小模型互斥么?大模型是一个超级大脑,小模型是一个垂域专家;大模型小模型并不互斥,反而会互相促进迭代;在实际落地场景中,小模型应用反而会更丰富一些。
ViT太慢了,知识蒸馏后得到的DeiT又快又好!
知识蒸馏Pytorch代码实战
神经网络知识蒸馏 Knowledge Distillation
Distilling-Step-by-Step,逐步蒸馏的方法,更好的利用大语言模型来训练我们自己的模型,从而在下游任务上取得更好的效果
开源小模型+本地部署+langchain+极客湾数字人, 实现情感陪伴,问答,网络检索功能. 对AI2.0感兴趣的朋友, 欢迎交流~~
解耦知识蒸馏【CVPR2022】【知识蒸馏】
知识蒸馏2022综述
【论文一刻】ICCV'23 从蒸馏到自蒸馏:通用归一化损失与定制软标签
什么是大模型量化和蒸馏?
网络压缩和知识蒸馏-来自李宏毅老师的深度学习机器学习课程
LaMiniLM 另辟蹊径!小模型、大数据。帮助个人开发者,用极小算力训练大语言模型,真正的NLP研
3分钟了解知识蒸馏的认知误区
轻量化进阶篇-如何做到无损轻量化?那得请出剪枝+知识蒸馏!(提供以Visdrone为数据集的yolov5实验)
VLLM ——高效GPU训练框架
大模型的“大”到底是什么?
SentenceBert模型:文本语义去重
深度学习之模型优化—理论实践篇(搞定模型剪枝量化蒸馏神经网络搜索,这一门课就够了)
深度学习模型压缩方法(二):剪枝
模型压缩架构和流程介绍!量化/剪枝/蒸馏/二值化4件套!【推理系统】模型压缩第01篇
知识蒸馏开山之作论文精读:Distilling the knowledge in a neural network
理解跨模态知识蒸馏 [ICLR 2023 Oral]
更快更强的Transformer升级模型:Transformer-XL
【精读AI论文】知识蒸馏
强化学习下的多教师知识蒸馏模型【沈向洋带你读论文】【知识蒸馏】
知识蒸馏SOTA算法解读!【推理引擎】模型压缩系列第06篇(下)
知识蒸馏原理介绍!知识从哪里来怎么蒸馏?【推理引擎】模型压缩系列第06篇(上)
知识蒸馏 |Distilling the Knowledge in a Neural Network
爆肝66小时!全网最细知识蒸馏论文精讲和代码逐行讲解
Andrej Karpathy:大模型10亿参数就够了,蒸馏技术效果非常好!
【科普】如何感性的理解AI大模型是什么
什么是模型的泛化能力?
如何将本地知识库接入大模型?