V
主页
注意力机制再升级:局部注意力+全局注意力新工作,训练成本仅有原版8.3%,8种融合策略YYDS
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
【ICCV2023回顾】一行代码即可见效,轻量注意力再升级!
犯傻了!用神经网络加上了注意力机制精度反而下降,现在我该怎么办?
通用创新点:坐标注意力机制,低成本下表现依旧SOTA!12种主流创新方法汇总
CNN与ViT的完美结合,整合局部和全局注意力
深度学习魔改的12种特征融合方法
最好的结合创新:小波变换+注意力机制,实现100%分类准确率!11种创新手法
Cross Attention is al you need!交叉注意力机制13篇必读
清华提出最新移动端高效网络架构注意力机制与卷积的完美融合
注意力机制+多尺度卷积,准确率近100%,一举拿下高分!10种创新思路借鉴
注意力机制魔改新思路: 窗口注意力速度提升210倍,刷新SOTA!10种创新思路
Transformer+U-Net全新突破:荣登《Nature》,模型准确率暴涨至99.97%!最新14种创新手法
小波变换+注意力机制新突破! 再登Nature!附15种创新思路
Softmax与线性注意力的整合清华黄高团队开源涨点神器
太牛了!最新交叉注意力机制,内存消耗减少91%!10种魔改给你思路
【AAAI24】工业异常检测新框架:首个基于扩散模型的多类异常检测,项目已开源 #Stable Diffusion
【小样本合集】小样本学习必读的15篇顶会论文
注意力机制大翻盘:首次支持128k长度上下文,单张GPU实现80亿参数推理
特征融合再突破:掀翻一众FPN,性能新巅峰!44种特征融合方法盘点
无需额外训练的多任务模型融合新范式
时间序列异常检测新突破:登上Nature,检测准确率飙升!37种创新方法
涨点神器:全局动态性+局部动态性,让模型性能倍增!10种创新思路
大模型都在用的注意力加速优化Flash Attention到底稳定吗?#Wasserstein距离 #数值偏差
无需看书、听课!学懂Transformer看这两篇博客就够了!
Transformer魔改策略又添一名新大将,循环门单元更新缓存,超越以往传统模型!
即插即用涨点种器:归一化层全新突破!
CNN+transformer结合:参数量减少92%,性能仍然超越SOTA!23种创新idea
【研究生必备】idea的老巢:多模态融合创新宝典
如何渗透大模型幻觉?看这3篇就够了!已经可以先发制人检测幻觉了!
商汤&悉尼大学视觉系:Mamba全新突破保留全局视,同时捕获局部信息!
新改进! LSTM与注意力机制结合,性能整个拿捏住!来看9种创新思路
24年最好用的模型融合技术来了!汇聚新兴预训练模型 可自动设计混合架构
啊?MLP居然是很好的Transformer学习者? CVPR24最佳候选论文揭晓原因
直接带你把Transformer手搓一遍,这次总能学会Transformer了吧!
【文献汇报】多尺度注意力Transformer
扩散过程启发的Transformer
最新几何Transformer模型登上Nature子刊!预测实现近10倍的速度提升,14种最新思路
告别传统长文本切块!先编码后分块新策略,让RAG信息检索又准又高效
大模型浪潮下的时间序列预测:透彻了解2种热门工作方法,4篇优秀论文
绝了!用降噪耳机原理升级注意力? 微软亚研&清华独创Transformer
减少76%注意力计算量,加速比高达180%!今年无穹新作就是NeurIPS涨点最好的证明