V
主页
【即插即用】SimAM:10行代码的无参数注意力机制
发布人
论文: http://proceedings.mlr.press/v139/yang21o/yang21o.pdf 代码: https://github.com/ZjjConan/SimAM
打开封面
下载高清视频
观看高清视频
视频下载器
CVPR2024中的多特征融合,附即插即用代码
ICCV 2023 | 轻量级即插即用注意力再升级,单行代码的魔力:优化注意力地图的简单之道!
[水论文] D-LKA 大核注意力机制
【ICCV23】即插即用的新注意力:Focused Linear Attention
硕士生去搞计算机视觉,是纯纯的脑瘫行为!
【研1基本功 (真的很简单)注意力机制】手写多头注意力机制
论文简读:基于傅里叶卷积的注意力机制—Fourierformer
写论文时总是被创新点、改模型、改代码折磨着?迪哥收集整理了13个论文即插即用模块,快速搭建模型结构,轻松搞定大小论文!
YOLOV8改进-添加注意力机制
视觉十分钟|通道注意力原理(SENet,CBAM,SRM,ECA,FcaNet)|计算机视觉/通道注意力/总结分享
YOLOV8改进-使用最新的EMA注意力机制与C2f-Faster融合 C2f-Faster-EMA
CPCA:改进SE和CBAM的即插即用注意力模块
FeatUp(ICLR2024):适用于任何方向的模型无关模块,附缝合教程
DEConv-来自24年1月文章的新型即插即用卷积模块,基本可以应用于CV所有2d任务
水论文:串并联交互缝合,制作自己的模块
深度学习不是用来找工作的
完美缝合Transformer和CNN,性能达到U-Net家族的巅峰 (附原文和代码)
YOLOV5改进-添加注意力机制
特征融合方式缝合,代码示例。
什么是 Attention(注意力机制)?【知多少】
(TIP2023) CFP:即插即用的多尺度融合模块
ICCV2023 轻量级即插即用 注意力再升级一行代码即可见效 (附原文和代码)
全卷积结构UNet设计:超越基于Transformer的SOTA,参数仅是其50%(附原文和代码)
热播剧《好事成双》,张小斐说LSTM比transformer效果好?
[水论文]即插即用的下采样模块,HWD,该模块可以很容易地集成到cnn中,以增强语义分割模型的性能
特征融合与注意力机制(Attention Mechanism)最新创新方法
注意力机制魔改新热门:性能表现SOTA,准确率达98.53%!
模块缝合即插即用模块-MCA(一种多维协作注意力)
即插即用CNN式Transformer,全力改进医学图像分割【附论文+代码】
模块缝合即插即用模块-用于时间序列预测的频率增强信道注意力机制(dct_channel_block)
论文创新案例分析,我们应该怎么改进模型 。
一种新的即插即用注意力-TalkingHeadAttn(从其他领域找自己领域的灵感)
[水论文]即插即用,可用于分割的模块,CSFCN,轻量级的上下文和空间特征校准网络
AKConv,即插即用的卷积操作来替代常规卷积操作以提高网络性能
CVPR2023 | CDDFuse:多模态图像融合方法
【不封神找我!】本硕生0代码能力也可以玩转深度学习,强烈推荐一个代码小白也能手撕深度学习的神级项目!
ICCV2023:SG-Former,水论文的一些思路。
水论文的一些思路:NLP->CV
SwinFusion:基于Swin Transformer的通用图像融合框架
[即插即用]计算机视觉,特征融合模块pag