V
主页
ICLR2023--SeaFormer:轻量高效的注意力模块
发布人
ICLR2023 SeaFormer:轻量高效注意力模块
打开封面
下载高清视频
观看高清视频
视频下载器
(TIP2023) CFP:即插即用的多尺度融合模块
深度学习缝了別的模块的创新点如何描述?思路:魔改attention+多尺度特征融合
横空出世的Mamba—要取代Transformer的地位?
【研1基本功 (真的很简单)注意力机制】手写多头注意力机制
ICCV 2023 | 轻量级即插即用注意力再升级,单行代码的魔力:优化注意力地图的简单之道!
FeatUp(ICLR2024):适用于任何方向的模型无关模块,附缝合教程
ICASSP2023--EMA:基于跨空间学习的高效多尺度注意力
AKConv,即插即用的卷积操作来替代常规卷积操作以提高网络性能
CFNeT:即插即用的多尺度融合方法
超强科研创新点:交叉注意力融合,13种创新思路全面汇总!
【即插即用】SimAM:10行代码的无参数注意力机制
视觉十分钟|通道注意力原理(SENet,CBAM,SRM,ECA,FcaNet)|计算机视觉/通道注意力/总结分享
PPA-Attention(并行化贴片感知注意力)-2024年3月的即插即用注意力,CV2d任务通用
暴叔锐评国内AI专业
顶会项刊=注意力机制+可变形卷积?竟然提速80%,不得不看的11种前沿创新
CVPR2023--BiFormer:双向路由注意力机制构建高效金字塔网络架构(即插即用、涨点)
CVPR2023--InceptionNeXt:当Inception遇上ConvNeXt
各公司面经介绍(AI方向)
CRMSA(CVPR2024):可以缝在transformer中的跨区域多头自注意力模块,附缝合演示教程
Batch Normalization(批归一化)和 Layer Normalization(层归一化)的一些细节可能和你想的并不一样
新颖视觉骨干网络结构,Vision Mamba
ICCV2023--iRMB:即插即用的倒残差自注意力模块
以U-Net为例,缝合模块教程,深度学习通用,看完不会直接来扇UP,报销路费
DEConv-来自24年1月文章的新型即插即用卷积模块,基本可以应用于CV所有2d任务
CVPR2022--FFNet:简单高效的backbone结构
注意力机制魔改新热门:性能表现SOTA,准确率达98.53%!
【ICLR 2024】交叉熵损失竞品出现!基于最优传输思想的损失函数
以transformer为例的缝合模块教程,内含详细操作以及维度转换,看完就学会
CVPR2023--Pconv:即插即用的新型轻量卷积,可用于YOLO系列涨点。(FasterNet新型主干网络)
TIP2023(SCI一区)--CFP:即插即用的多尺度融合模块
CVPR2024中的多特征融合,附即插即用代码
CVPR2023--RIFormer:无需TokenMixer的极简ViT架构
最新15个Mamba魔改超越transformer,GPU内存消耗减少74%
CVPR2023--SCConv:即插即用的空间和通道重建卷积
【研1基本功 (真的很简单)Decoder Encoder】手写Decoder Layer 准备召唤Transformer
CVPR2023--PIDNet:基于注意力机制引导的实时语义分割网络
CVPR2024--PKINet :PKIBlock多尺度卷积核,CAA上下文锚点注意力
CVPR2024--RepViT:轻量级新主干!从ViT角度重新审视移动CNN
论文速读17:Mamba
MSCA(NeurIPS 2022):一种多尺度卷积注意力模块,适用于语义分割