V
主页
FECAM:频率增强通道注意力模块,适用于时间序列预测任务,可以缝合在transformer中,即插即用
发布人
大家好,今天给大家介绍一个适用于时间序列预测的即插即用注意力模块,可以缝合在Transformer或者LSTM中。这个模块是通道注意力SENet的变体,它利用离散傅里叶变换和余弦变换处理时间序列数据。这个机制的关键组成部分包括自定义的离散余弦变换(DCT)函数、一个应用这种变换的DCT通道块模块,以及通过一系列全连接(FC)层实现的通道注意力机制。最后祝您五一假期愉快,感谢您的观看!本视频代码和论文已同步更新在网盘群中,欢迎私信或者在评论区留下想看的内容!
打开封面
下载高清视频
观看高清视频
视频下载器
时间序列+即插即用注意力模块!只需几行代码,预测误差狂降35.99%
(TIP2023) CFP:即插即用的多尺度融合模块
CVPR2024中的多特征融合,附即插即用代码
模块缝合即插即用模块-用于时间序列预测的频率增强信道注意力机制(dct_channel_block)
CPCA:改进SE和CBAM的即插即用注意力模块
CRMSA(CVPR2024):可以缝在transformer中的跨区域多头自注意力模块,附缝合演示教程
DSAM:适用于图像恢复任务的注意力模块
ICB和ASB(ICML 2024):适用于时间序列任务的即插即用模块,可以应用在transformer中
融合创新!:全局特征+局部特征,性能优于Transformer,总计10种融合方法
PyConv:金字塔卷积,适用于几乎所有计算机视觉任务,即插即用
深度学习网络缝合模块,模块缝模块。思路代码按小白角度讲解。手把手教你缝合(全网最详细教学)
DA_Block:即插即用模块,可缝合在transformer或unet中
SDM:特征融合模块,即插即用,2D和3D均适用
一个视频带你完全掌握深度学习模块缝合全部基础操作,以UNet为例
深度学习模块嵌套缝合教程,模块缝合又一操作
PConv(CVPR2023):即插即用卷积模块
DSAttention(去稳态注意力)-用于时间预测序列的即插即用注意力
RevIN(ICLR 2022):适用于时间序列预测任务的归一化方法,可以应用在transformer中,即插即用
即插即用注意力模块+时间序列!只需几行代码,预测误差狂降35.99%,最新8种时间注意力模块
DFF:可以缝合在transformer中的动态特征融合模块,来自于2024年3月份的文章,适用于2D和3D分割任务
DA模块,双重注意力,即插即用
以transformer为例的缝合模块教程,内含详细操作以及维度转换,看完就学会
Free_UNet-无需训练,即插即用于扩散模型的改进U-Net结构
SFFusion:特征融合模块,2d和3d版本,附创新点的启发,提取和融合浅层特征
MDCR:多膨胀率通道卷积模块,即插即用,适用于目标检测等计算机视觉任务
TIF:特征融合模块,可以在跳跃连接过程中使用
RSAblock:适用于3d医学图像分割的注意力模块,可以缝合在UNet中,即插即用
Mamba Back!一种来自于Mamba领域的即插即用模块(TimeMachine),用于时间序列任务!
全网最牛的注意力机制创新思维分析,看了立马提走一篇二区
GSC(MICCAI2024):可以应用在Mamba中的卷积模块,3d和2d版本,即插即用
DASI:一种特征融合模块,即插即用,适用于目标检测等计算机视觉领域
GCT(CVPR2020):改进通道注意力SENet,即插即用模块
针对transformer的FFN层缝合教程,把深度可分离卷积缝合在FFN层中教学【深度学习】
超轻量且高效的动态上采样器,附演示教程,可以轻松替代现有的上采样器,即插即用
FITS(从频域角度出发)-用于时间序列任务的即插即用模块
3D EfficientViT:EfficientViT的3D版本,适用于3D的模块
DO-Conv:深度超参数化卷积层,适用于计算机视觉图像处理任务,可以替代传统卷积
NAF:即插即用模块,适用于图像恢复领域
MobileNetV4来啦,其中的UIB块
CLEEGN:即插即用模块,适用于自动脑电图信号(EEG)重建,来自于24年2月份的论文