V
主页
注意力机制魔改新思路: 窗口注意力速度提升210倍,刷新SOTA!10种创新思路
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
深度学习新动向:液态神经网络拿下Nature子刊!10种最新创新思路
90分钟串讲Attention-Transformer-BERT-GPT
发明Netron的人真是个天才,能把复杂难懂的代码以图形化的方式展示!
解锁Transformer的神秘面纱,探索注意力机制的数学之美!Transformer下一个研究重点
手把手教学代码调试、详解深度学习维度报错、摘取2024最新注意力机制插入模型中
太牛了!最新交叉注意力机制,内存消耗减少91%!10种魔改给你思路
Patch才是时序预测的王道?最新工作超越Transformer取得SOTA
通用创新点:坐标注意力机制,低成本下表现依旧SOTA!12种主流创新方法汇总
具身机器人结构化建模新热潮:掩码注意力增强Transformer,通杀MLP和基线T模型!
注意力机制18种魔改方法全面汇总!包含论文/代码
ICML2024最新SLA线性注意力机制,CV/NLP通用,详解摘取模块、缝合教程!
Attention永不言败!损失函数+注意力机制再战性能巅峰,10种结合思路!
提升代码能力,抄他的代码是最好的学习方法!
深度学习炼丹师的好炉子,它会是你的梦中情炉吗?
Transformer+U-Net全新突破:荣登《Nature》,模型准确率暴涨至99.97%!最新14种创新手法
昇腾AI原生创新算子挑战赛-S2赛季优秀算子分享
【看一遍就会Transformer】一次吃透多头注意力机制,0基础直达NLP前沿! | QKV原理详解 | 算法实战 | 架构精讲
Transformer的下一个创新热点:基于栈注意力机制,可微数据结构是永远滴神!
基于RNN的长周期时间序列预测模型,优于SOTA Transformer效果【论文+代码】
好出创新点:小样本学习的10种前沿方法汇总,发论文必看!
时间序列预测10种创新思路!多尺度方法让模型预测更准、更快!
即插即用模块,让模型say:我不确定,训练速度提升180倍!
深度学习缝了别人的模块,创新点如何描述?附注意力机制55种魔改思路+13种多尺度特征融合改进方法,原文和代码都有
注意力机制再升级:局部注意力+全局注意力新工作,训练成本仅有原版8.3%,8种融合策略YYDS
【保姆级教程】ChatGPT4.0国内免费使用教程
如何查找数据集并下载,用于自己实验内
用于时间序列预测的 指数平滑Transformer
深度学习代码规范
Transformer技术原理,论文讲解!带你秒懂Transformer底层逻辑原理!真的通俗易懂!(人工智能、深度学习、机器学习算法、神经网络、AI)
ResNet最新变体:性能反超Transformer,准确率达98.42%,19种改进方法一览无遗!
全体研究生注意:别再追求模型收敛了!一个Trick让模型更稳定
Transformer魔改策略又添一名新大将,循环门单元更新缓存,超越以往传统模型!
即插即用-CCF-A 2024最新交互卷积模块,可用于多尺度时序特征提取,指标提升!
好中顶会:残差模块+Transformer刷爆SOTA!浮点运算次数直降62%,11种结合创新思路
腾讯AI Lab开源全新注意力机制:助力视觉任务疯狂涨点!
爆肝制作《注意力机制》
结合创新!即插即用的多尺度特征融合模块,助力检测分割等暴力涨点!
多尺度注意力机制突破性成果!低成本、高性能兼备的17种创新思路
3D网格生成突破创新:加入自回归Transformer,生成效率和质量再也不是个事儿
2024年发论文方向推荐:因果推断,所有论文已汇总!