V
主页
GCT(CVPR2020):改进通道注意力SENet,即插即用模块
发布人
本视频代码和论文已同步更新在网盘群中,欢迎私信或者在评论区大家好,今天给大家介绍一个即插即用的模块,这个模块是通道注意力SEnet的变体,叫做Gated Channel Transformation (GCT)模块,GCT模块包括三个部分:global context embedding, channel normalization, gating adaptation,如图所示。该模块通过结合归一化和门控机制的设计,使得浅层特征可以更好的获取通用的属性,深层特征可以更好的获取与任务相关的特征。
打开封面
下载高清视频
观看高清视频
视频下载器
【深度学习缝合模块】废材研究生自救指南!12个最新模块缝合模块创新!-CV、注意力机制、SE模块
CPCA:改进SE和CBAM的即插即用注意力模块
CVPR2024中的多特征融合,附即插即用代码
视觉十分钟|通道注意力原理(SENet,CBAM,SRM,ECA,FcaNet)|计算机视觉/通道注意力/总结分享
深度学习网络缝合模块,模块缝模块。思路代码按小白角度讲解。手把手教你缝合(全网最详细教学)
AAAI2024--Rethinking-attention:浅层MLP完全替换注意力模块提升性能
即插即用卷积块全新突破参数减少60倍,性能飙升的9种最新卷积块
即插即用的上采样缝合模块--Dysample
DEConv-来自24年1月文章的新型即插即用卷积模块,基本可以应用于CV所有2d任务
scSE:空间通道注意力,即插即用,适用于图像分割等图像处理领域
HAAM:混合自适应注意力模块,适用于图像分割任务
DA模块,双重注意力,即插即用
FECAM:频率增强通道注意力模块,适用于时间序列预测任务,可以缝合在transformer中,即插即用
ICB和ASB(ICML 2024):适用于时间序列任务的即插即用模块,可以应用在transformer中
SFFusion:特征融合模块,2d和3d版本,附创新点的启发,提取和融合浅层特征
24种魔改注意力机制 暴力涨点 即插即用 CNN+注意力机制
Pytorch 图像处理中注意力机制的代码详解与应用(Bubbliiiing 深度学习 教程)
SDM:特征融合模块,即插即用,2D和3D均适用
DA_Block:即插即用模块,可缝合在transformer或unet中
NAF:即插即用模块,适用于图像恢复领域
RSAblock:适用于3d医学图像分割的注意力模块,可以缝合在UNet中,即插即用
GSC(MICCAI2024):可以应用在Mamba中的卷积模块,3d和2d版本,即插即用
SPConv:无缝替换现有网络中的常规卷积,即插即用
(TIP2023) CFP:即插即用的多尺度融合模块
MobileNetV4来啦,其中的UIB块
学会这个即插即用的最新的创新点,少走三年弯路
PConv(CVPR2023):即插即用卷积模块
RevIN(ICLR 2022):适用于时间序列预测任务的归一化方法,可以应用在transformer中,即插即用
TIF:特征融合模块,可以在跳跃连接过程中使用
在云服务器上运行Github开源项目(基准模型)教程,分享一个变体UNet用于医学图像分割的基准模型【深度学习】
深度学习模块缝合教程,将模块原有的注意力替换成别的模块的注意力
DFF:可以缝合在transformer中的动态特征融合模块,来自于2024年3月份的文章,适用于2D和3D分割任务
GRN:全局响应归一化,可替换transformer中的归一化层
3D EfficientViT:EfficientViT的3D版本,适用于3D的模块
CRMSA(CVPR2024):可以缝在transformer中的跨区域多头自注意力模块,附缝合演示教程
深度学习模块缝合以及如何找模块的一些心得
DASI:一种特征融合模块,即插即用,适用于目标检测等计算机视觉领域
SENet的3D版本和PE模块,即插即用3D注意力模块
超轻量且高效的动态上采样器,附演示教程,可以轻松替代现有的上采样器,即插即用
CondConv:经典动态卷积,适用于几乎所有计算机视觉图像任务