V
主页
已经厌倦了Softmax注意力?试试不依赖位置编码的新注意力 保证做长度泛化轻轻松松
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
不能错过的注意力反直觉研究,重新思考Softmax!多项式激活自注意力将是最佳替代
绝了!用降噪耳机原理升级注意力? 微软亚研&清华独创Transformer
在特征融合后准确率居然降低,你真的掌握特征融合了吗?特征金字塔或许才是你的优选
深度学习缝了別的模块的创新点如何描述?思路:魔改attention+多尺度特征融合
Transformer求解偏微分方程爆火:新SOTA误差直降52%,10种最新求解方法汇总
Cross Attention is al you need!交叉注意力机制13篇必读
剑指Softmax注意力梯度下降,基于指数变换的注意力实在厉害! 深度学习这下真大升级!
树注意力仅需30行代码,500万长文本推理提速8倍!让GPU能省则省
域泛化爆火!12种前沿创新思路全面汇总
注意力机制创新点都在这里了!51种魔改方法掌握了吗?
自注意力从掩码语言建模中学到了什么?想摸清楚看这篇综述
时间序列不同注意力机制哪种更优秀?让我们一探究竟
【ICLR 2024】交叉熵损失竞品出现!基于最优传输思想的损失函数
7.控制输出平滑度的技巧:带温度的Softmax-最好的Transformer教学视频:通过图形化方式来理解Transformer架构
中科院一区顶刊:即插即用的多尺度全局注意力机制 【附原文+源码】
Transformer新魔改:性能媲美注意力机制,处理长序列更具优势!
英伟达发布最新魔改注意力:简单模型结构+全局信息聚合,SimplifyFormer延迟降低37%,吞吐量提高44%
特征融合之后为何准确率还降低了?来学14中最新魔改方法,保证涨点!
内嵌物理神经网络火了!最新研究进展和运用,看这2篇就够了
注意力机制是当下每个人科研人都必须掌握技术,30篇高分Attention论文一次看完!
冲破束缚! 多层感知机+注意力机制模型准确率提升至98.85%,这11种新思路学起来
Transformer颠覆性发现:像素级运算无需局部性归纳偏置 全新像素版性能再升级
【全126集】目前B站最系统的Transformer教程!入门到进阶,全程干货讲解!拿走不谢!(神经网络/NLP/注意力机制/大模型/GPT/RNN)
VQ(矢量量化)一下子Key:Transformer的复杂度就变成线性了?
计算机博士终于把图注意力模型(GAT)与序列图模型(TGCN)讲得如此透彻了!
时序预测注意力机制模块这么好用?到2024年还能发CCF-A?即插即用、模块讲解、代码展示
神经网络的下一个爆点:从动力学视角理解神经网络训练
鲁棒卡尔曼滤波2024新算法:基于广义贝叶斯推断计算高效 泛用于在线滤波各种问题
扩散模型Stable Diffusion也能生成透明图像了吗?@共享注意力机制
对神经网络做了小改进能发论文吗?10篇故事参考+attention魔改
名为CAT的卷积增强Transformer:必学的卷积+注意力新混合架构设计
【即插即用】2023 高效多尺度注意力模块
超全超简单!同济大佬53集带你零基础吃透GNN图神经网络:GCN图卷积、PYG、图注意力机制、图相似度、轨迹预测实战一口气学完!-人工智能/神经网络/深度学习
【即插即用】2024最新 全注意力模块
【物理信息神经网络】唯一一本系统讲解PINN的书籍,中英双版+源码
(WACV 2024)即插即用边缘引导注意力机制模块,涨点起飞起飞了
4.词语的数字化表示:词嵌入-最好的Transformer教学视频:通过图形化方式来理解Transformer架构
解锁Transformer的神秘面纱,探索注意力机制的数学之美!Transformer下一个研究重点
深度学习缝了别人的模块,创新点如何描述?附魔改注意力机制+多尺度特征融合模块源码
几乎优化任意损失函数,不使用一阶信息的新boosting算法,偏移量预言机是关键!