V
主页
Transformer的改革?交大提出大图上的线性Transformer,收录NeurIPS
发布人
需要的同学可以关注后看私信[脱单doge] 或者添加以下[脸红] https://www.bilibili.com/read/cv21673469
打开封面
下载高清视频
观看高清视频
视频下载器
剑指Softmax注意力梯度下降,基于指数变换的注意力实在厉害! 深度学习这下真大升级!
用Mamba设计1.8M参数UNet,比U-Mamba小近100倍,精度依旧完成超车!
北大新作:傅里叶分析神经网络,填补周期性特征建模缺陷,Transformer重要缺陷被揭示!
犯傻了!用神经网络加上了注意力机制精度反而下降,现在我该怎么办?
注意力机制魔改新思路: 窗口注意力速度提升210倍,刷新SOTA!10种创新思路
深度学习三巨头之-Bengio等新作:注意力可被视为RNN?新模型媲美Transformer,超省内存!
首个王牌模型:空间感知Transformer 实现空间推理精准地点记忆 #transformer
Transformer的下一个创新热点:基于栈注意力机制,可微数据结构是永远滴神!
深度学习论文被评“创新性不足、工作量不够”怎么办? -人工智能/深度学习/机器学习
研究生一定要知道的ChatGPT顶级学术论文指令
【B站强推!】这可能是B站目前唯一能将【3D点云+三维重建】讲清楚的教程了,看完小白也能信手拈来,建议收藏!计算机视觉|点云
小白都能看懂的可解释性综述,基于Transformer LM全方位破译内部工作机制
等变性为何能提高数据效率? 等变VS非等变Transformer 到底如何正确选择?
不得不看的Mamba实证研究:英伟达、普林斯顿等联合出品,首创80亿参数Mamba+注意力互补新变体
CVPR2023必读的2篇Vision Transformer论文
目前最强Backbone:北大+港大+腾讯+复旦+蚂蚊联合发布,远超ResNet
超Hot!全球首个线性注意力实现速度远超其他注意力机制 #Attention
【即插即用】2023 线性注意力模块
Transformer最新进展:性能大幅度超出一众SOTA模型!26种魔改方法
神经网络必看!如何从零入门CNN、RNN、GAN、GNN、DQN、Transformer、LSTM等!清华大佬一天就教会了我如何入门神经网络算法,绝对通俗易懂
Transformer如何解决命题逻辑问题?激活修补竟然是关键!全面剖析内部机制奥秘!
即插即用-打败传统CNN和Transformer的创新模块!指标提升,参数减少、模型涨点
Mamba再下一城:与CNN&Transformer结合设计,大幅降低标注成本和资源
时间序列异常检测新突破:登上Nature,检测准确率飙升!37种创新方法
35年首次证明!神经网络泛化能力荣登《Nature》
时序领域大火的根本原因?现在入局还不晚!25篇ICLR2023精华论文
结合创新!小波变换+注意力机制,实现100%分类准确率
代码逐行解读,机器学习问题都能解决的书,你真的不看看吗
MotionGS 和 GaussianFlow 论文插图的一些观察
【文献汇报】多尺度注意力Transformer
麻省理工深度学习代码实现
调参利器 ,复旦NLP实验室专用!
马毅教授五年集大成之作:数学可解释的白盒Transformer,性能不输ViT
基于RNN的长周期时间序列预测模型,优于SOTA Transformer效果【论文+代码】
即插即用涨点种器:归一化层全新突破!
吹爆!不愧是中科院大佬,7天就把Transformer、RNN、BERT和迁移学习讲透了!整整100集付费,全程干货讲解,这还学不会up直接退出IT圈!
预测误差降低36%!小波变换+Transformer荣登Nature!
【即插即用】2023 高效多尺度注意力模块
具身机器人结构化建模新热潮:掩码注意力增强Transformer,通杀MLP和基线T模型!
清华&蚂蚁提出:反向transformer—最新时序预测SOTA模型!【附原文和代码】