V
主页
绝了!用降噪耳机原理升级注意力? 微软亚研&清华独创Transformer
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
在北航作弊邀请清华学生打自己辅导员,可能遭到什么处分(按照校规校纪)
剑指Softmax注意力梯度下降,基于指数变换的注意力实在厉害! 深度学习这下真大升级!
(CIKM'24) 交通流量预测模型 DEC-Former:从解耦的视角重新思考注意力机制在时空建模中的应用
2024最新即插即用卷积模块MSPANet打败Resnet、SE、CBAM,CNN框架模型涨点!
小波变换+注意力机制再登Nature!这15种创新突破,你还不知道?
涨点神器:清华提出新型注意力机制,深度学习论文创新必备!
【即插即用】2024 动态时频嵌入网络
中科院一区顶刊:即插即用的多尺度全局注意力机制 【附原文+源码】
涨点新神器-小波卷积:准确率飙升26.2%,运行时间降低60%!必看的8种结合创新思路
视觉Transformer背后的关键,清华&Meta提出HorNet:用递归门控卷积进行高阶空间和相互作用(原文和代码)
内嵌物理神经网络火了!最新研究进展和运用,看这2篇就够了
【即插即用】CVPR 2024 上下文锚点注意力
【文献汇报】注意力遇上隐马尔可夫
卷不动transformer改进?第三代神经网络-脉冲神经网络了解一下,适配时序、图像各任务,能耗降低54%
PINN又进化了! 15种物理信息神经网络最新改良方案分享
【文献汇报】频带注意力网络
昆仑万维首席颜水成新作:多头注意力迎来究极形态,性能爆表!仅需50-90%注意力头
不能错过的注意力反直觉研究,重新思考Softmax!多项式激活自注意力将是最佳替代
【ICLR2024】 几乎零计算开销!100%改进不确定度估计 贝叶斯神经网络的神
深度学习论文被评“创新性不足、工作量不够”怎么办? -人工智能/深度学习/机器学习
不看太可惜!又快又准,即插即用!Sage Attention——清华8bit量化Attention
[速领]效果暴涨!基于Transformer的最新时序异常检测模型
【结合创新】Patch-Transformer做时序预测,比传统模型快5-10倍(涵盖5种最新融合改进方法)
多模态图像融合全新里程碑:性能暴涨至99.48%,效率提升4倍!11种改进思路
时间序列不同注意力机制哪种更优秀?让我们一探究竟
Transformer新魔改:性能媲美注意力机制,处理长序列更具优势!
softmax自注意力机制如何使Transformer模型在上下文学习任务表现出彩?
VQ(矢量量化)一下子Key:Transformer的复杂度就变成线性了?
时间序列在数据embedding上有哪些创新? 盘点ICLR24最佳思路和工作
即插即用-打败传统CNN和Transformer的创新模块!指标提升,参数减少、模型涨点
清华在校生告诉你,怎么才能高考上清华??
注意力机制创新点都在这里了!51种魔改方法掌握了吗?
Transformer能做逻辑推理吗?不曾展露的真实实力可能被你忽略了!看完这篇顿悟!
【领域展开】新LSTM架构王者归来,结合LLM几乎碾压Transformer,扩展到数十亿参数未来可期
华为提出时序预测Mixers,取代Transformer,实现效果速度双提升#人工智能 #ai #论文 #时间序列#Transformer
给你的U-Net加BUFF!Al Attention出击U-Net,ResNet50+U-Net提升31.8%
高考状元,715分,清华在读
时序预测注意力机制模块这么好用?到2024年还能发CCF-A?即插即用、模块讲解、代码展示
扩展模型=搭积木!重新思考Transformer缩放,Token化模型参数不再是梦!#新神经网络
清华本科且博士在读,浙江高考生,教数学课时费一百多