V
主页
阿里提出Mamba in Mamba!比现有SOTA提速10倍,相关学术24篇
发布人
需要论文/代码的同学可以 关注后看私信或添加以下: https://www.bilibili.com/read/cv21673469
打开封面
下载高清视频
观看高清视频
视频下载器
Patch才是时序预测的王道?最新工作超越Transformer取得SOTA
注意力机制魔改新思路: 窗口注意力速度提升210倍,刷新SOTA!10种创新思路
【小样本合集】小样本学习必读的15篇顶会论文
Mamba再下一城:与CNN&Transformer结合设计,大幅降低标注成本和资源
剑指Softmax注意力梯度下降,基于指数变换的注意力实在厉害! 深度学习这下真大升级!
【CVPR24】只有1.3ms延迟,清华最新开源移动端神经网络架构!
【CVPR24】大核CNN一统多种模态:ImageNet 88%,时间序列预测新SOTA!
用Mamba设计1.8M参数UNet,比U-Mamba小近100倍,精度依旧完成超车!
不得不看的Mamba实证研究:英伟达、普林斯顿等联合出品,首创80亿参数Mamba+注意力互补新变体
最新transformer架构登上Nature子刊!高可解释性预测寿命,9篇相关论文文献
基于RNN的长周期时间序列预测模型,优于SOTA Transformer效果【论文+代码】
Transformer都有哪些魔改?
一个Trick搞定CNN与Transformer,即插即涨点即提速!
【全374集】2024最新清华内部版!终于把AI大模型(LLM)讲清楚了!全程干货讲解,通俗易懂,拿走不谢!
小波变换+注意力机制新突破! 再登Nature!附15种创新思路
最新几何Transformer模型登上Nature子刊!预测实现近10倍的速度提升,14种最新思路
医学图像领域学生狂喜:Mamba终于加持U-Net,显著超越SWin-UNet!
CVPR2023必读的2篇Vision Transformer论文
即插即用-2024 CCF-A 时间卷积模块MSIPT打败LSTM、Transformer成为最新时序sota!!!
【中科院一区顶刊】即插即用的多尺度全局注意力机制
Attention永不言败!损失函数+注意力机制再战性能巅峰,10种结合思路!
2024吃透AI大模型(LLM+RAG系统+GPT-4o+OpenAI)通俗易懂,学完即就业!拿走不谢,学不会我退出IT圈!!!
多元时间序列创新断崖式增长:联合混合并不是最优!3种xLSTM高级改进教你速提精度
【AAAI2024】Unet高级变体来了 重振MLP对医学图像分割高效提取长距离依赖能力
清华&蚂蚁提出:反向transformer—最新时序预测SOTA模型!【附原文和代码】
论文新思路:双通道卷积神经网络的8种创新!最新成果准确率近100%
图神经网络的时间序列模型综述:GNN for TS
注意力机制+多尺度卷积,准确率近100%,一举拿下高分!10种创新思路借鉴
【ICCV2023回顾】一行代码即可见效,轻量注意力再升级!
GNN与Transformer完美融合,模型迎来“性能大爆炸”!18种最好的结合思路
2024最新即插即用卷积模块MSPANet打败Resnet、SE、CBAM,CNN框架模型涨点!
阿里&华科提出通用多模态表征模型刷新多个SOTA
用于时间序列预测的 指数平滑Transformer
超全超简单!一口气刷完CNN、RNN、GAN、GNN、DQN、Transformer、LSTM、DBN等八大深度学习神经网络算法!真的比刷剧还爽!
告别传统长文本切块!先编码后分块新策略,让RAG信息检索又准又高效
13种即插即用模块,涨点发文必备【原文+代码】
Transformer的改革?交大提出大图上的线性Transformer,收录NeurIPS
非Transformmer架构站起来了! 首个纯无注意力大模型, 超越开源巨头Llama 3.1!这70种魔改思路不得不看
【200集还是太全面了】拒绝低效!一口气学完CNN、RNN、GAN、LSTM、GNN、DQN、Transformer、MLP、AE九大深度学习神经网络!纯干货!
【ICLR2023】扩散过程后发的Transformer:3GB显存实现,十万级样本间全联接的多层信息传递