V
主页
【ICLR 2024】交叉熵损失竞品出现!基于最优传输思想的损失函数
发布人
【关于资料领取】 大家可以关注我后看下信息,或者看下: https://www.bilibili.com/read/cv19092163/
打开封面
下载高清视频
观看高清视频
视频下载器
多模态大模型的文字识别能力之痛,由OCR大模型来缓解!
面向图结构数据的机器学习(图机器学习与最优传输)
最优传输理论-中文-有标题版 (来学习深度学习的几何理解呀)【顾险峰】
2024年的科研:Patch做时间序列预测才是王道!来看最新10种改进方法
最新15个Mamba魔改超越transformer,GPU内存消耗减少74%
哈佛大学&MIT联合发布:最新时间序列统一大模型,秒杀各类时序任务!
ICLR2023--SeaFormer:轻量高效的注意力模块
让时间序列预测结果更真实的损失函数,几乎适用于所有时间序列预测任务!
深度学习论文创新、暴力涨点新神器! 快速傅里叶卷积模块,10种前沿改进学起来!
深度学习的多个loss如何平衡?
精彩!Sora 核心成员Tim 和Bill 在加州大学课堂上分享Sora技术细节。
用Mamba设计1.8M参数UNet,比U-Mamba小近100倍,精度依旧完成超车!
GNN新改进原地封神! 未来可能无需归一化层或自归一化,避免激活值爆炸
超强科研创新点:交叉注意力融合,13种创新思路全面汇总!
24年最好发论文的方向:Mamba魔改&应用,24篇参考文献来袭!
对AI感兴趣,这些顶刊顶会的文章多看看
TIP2023(SCI一区)--CFP:即插即用的多尺度融合模块
深度学习缝了別的模块的创新点如何描述?思路:魔改attention+多尺度特征融合
Batch Normalization(批归一化)和 Layer Normalization(层归一化)的一些细节可能和你想的并不一样
【2024LG】高维贝叶斯突破维度灾难,登上神坛!!这一研究突破了传统高维贝叶斯优化方法的限制-人工智能、机器学习、贝叶斯算法、深度学习、顶会顶刊论文
检测一切!通用目标检测!T-Rex2:标注神器?重磅开源!
【学术前沿】扩散模型角色一致性有了新的解法了!谷歌开源
拒了?眞拒了!Mamba out的真相就在这6篇里
阿里提出Mamba in Mamba!比现有SOTA提速10倍,相关学术24篇
顶会项刊=注意力机制+可变形卷积?竟然提速80%,不得不看的11种前沿创新
好“水”论文的方向:对比学习,来看20种前沿创新思路!
“AI行业被困在了六七年前的原型上”
即插即用涨点种器:归一化层全新突破!
超级水刊,几乎不退稿的计算机1区sci
也许循环神经网络RNN也能胜过Transformer? 谷歌新作不是闹着玩儿的
【CVPR24】只有1.3ms延迟,清华最新开源移动端神经网络架构!
ICLR 2024 涨点神器!MIT和谷歌提出FeatUp:适用于任何分辨率特征的涨点神器!
神经网络求解偏微分方程新突破! 再登Nature!26种前沿求解方法
【精校】黄仁勋和Transformer论文七作者现场访谈 | GTC2024【中英】
【研1基本功 (真的很简单)注意力机制】手写多头注意力机制
【研1基本功 (真的很简单)Decoder Encoder】手写Decoder Layer 准备召唤Transformer
【研1基本功 (真的很简单)Encoder Embedding】手写编码模块、构建Encoder Layer
深度学习纯靠造假能发论文嘛?
注意力机制魔改新热门:性能表现SOTA,准确率达98.53%!
nlp开发利器——vscode debug nlp大工程(最最最优雅的方式)