V
主页
GSC(MICCAI2024):可以应用在Mamba中的卷积模块,3d和2d版本,即插即用
发布人
大家好,今天想给大家介绍一个可以应用在mamba中的卷积模块,叫做门控空间卷积Gated Spatial Convolution (GSC),这个模块出自最新的医学影像顶会MICCAI2024。 论文的名字叫做:SegMamba: Long-range Sequential Modeling Mamba For 3D Medical Image Segmentation.在论文中,Mamba 层通过将 3D 特征展平为 1D 序列来对特征依赖性进行建模。 因此,作者为了提取 Mamba 层之前的空间关系,设计了门控空间卷积(GSC)模块,3D特征被输入到两个卷积块(每个卷积块包含一个InstanceNorm、一个卷积层和一个非线性层),卷积核大小分别为3×3×3和1 ×1×1。然后将这两个特征逐像素相乘,以类似于门控机制的方式控制信息传输。 最后,使用卷积块进一步融合特征,同时使用残差连接来融合输入特征和输出特征。up在这里提供了代码的2d版本,供大家使用,感谢您的观看!
打开封面
下载高清视频
观看高清视频
视频下载器
CSA:可以应用在U型网络中的多尺度注意力模块
CVPR2024中的多特征融合,附即插即用代码
一个视频带你完全掌握深度学习模块缝合全部基础操作,以UNet为例
两个适用于图像去噪任务的残差注意力模块,即插即用
CPCA:改进SE和CBAM的即插即用注意力模块
DFF:可以缝合在transformer中的动态特征融合模块,来自于2024年3月份的文章,适用于2D和3D分割任务
ICB和ASB(ICML 2024):适用于时间序列任务的即插即用模块,可以应用在transformer中
频率感知跨模态注意力和加权跨模态特征融合,适用于RGBD显著性目标检测任务
DA_Block:即插即用模块,可缝合在transformer或unet中
Transformer模块缝合教程重置版,替换自注意力和FFN层【深度学习】
SLAB(ICML2024):可应用在transformer中的归一化方法和注意力模块,附演示教程
DSAM:适用于图像恢复任务的注意力模块
TIAM:适用于遥感图像变化检测任务的时空交互注意力模块
FECAM:频率增强通道注意力模块,适用于时间序列预测任务,可以缝合在transformer中,即插即用
PConv(CVPR2023):即插即用卷积模块
RSAblock:适用于3d医学图像分割的注意力模块,可以缝合在UNet中,即插即用
DICAM:适用于水下图像增强的注意力模块
超轻量且高效的动态上采样器,附演示教程,可以轻松替代现有的上采样器,即插即用
GCT(CVPR2020):改进通道注意力SENet,即插即用模块
EFF:高效特征融合模块,适用于图像分割任务,2d和3d版本
TIF:特征融合模块,可以在跳跃连接过程中使用
RevIN(ICLR 2022):适用于时间序列预测任务的归一化方法,可以应用在transformer中,即插即用
DASI:一种特征融合模块,即插即用,适用于目标检测等计算机视觉领域
HAAM:混合自适应注意力模块,适用于图像分割任务
SFFusion:特征融合模块,2d和3d版本,附创新点的启发,提取和融合浅层特征
Vision Mamba(Vim)环境配置过程(Linux)
微软新作StarNet创飞CVPR24:轻量级超强Backbone来了!在神经网络中应用价值极高
DEConv-来自24年1月文章的新型即插即用卷积模块,基本可以应用于CV所有2d任务
DO-Conv:深度超参数化卷积层,适用于计算机视觉图像处理任务,可以替代传统卷积
3D EfficientViT:EfficientViT的3D版本,适用于3D的模块
LPA:局部金字塔注意力模块,2d和3d版本,适用于图像分割任务
GhostModuleV1&V2:可以代替原有的卷积操作,即插即用
KAN真的能取代MLP吗
论文速读26:KAN 人工智能新的大厦
【AAAI2024】Unet高级变体来了 重振MLP对医学图像分割高效提取长距离依赖能力
KAN+Resnet项目讲解,融入KAN后指标超越原残差神经网络,学会这个方法融合进任意神经网络
Mamba Out!最新论文表明,Mamba对于计算机视觉不好使!
Mamba Out!2024视觉最新架构VMamba,号称超越Transformer,是一个创新度非常大的创新点!!有需要的赶紧看看了!
KAN-缝合具体操作以及一些思考
大队长带你原地毕业,即插即用的注意力机制,让你少走三年弯路