V
主页
全体研究生注意:别再追求模型收敛了!一个Trick让模型更稳定
发布人
需要论文/代码的同学可以 关注后看私信或添加以下: https://www.bilibili.com/read/cv21673469
打开封面
下载高清视频
观看高清视频
视频下载器
时间序列异常检测新突破:登上Nature,检测准确率飙升!37种创新方法
权重初始化新方法:大模型权重初始化小模型,训练省时又涨点!
多模态大模型的文字识别能力之痛,由OCR大模型来缓解!
一个Trick搞定CNN与Transformer,即插即涨点即提速!
【水论文必看!】特征融合12种变态魔改方法
最强可视化自动调参工具 +调优手册已开源!千万要用起来这个神器!超参数调优
医学图像分割必看U-Net新变体:无缝集成,猛涨20个mloU!
这下上央视了,该老实了
最新几何Transformer模型登上Nature子刊!预测实现近10倍的速度提升,14种最新思路
35年首次证明!神经网络泛化能力荣登《Nature》
小波变换+注意力机制再登Nature!这15种创新突破,你还不知道?
Patch才是时序预测的王道?最新工作超越Transformer取得SOTA
深度学习代码规范
小模型的组合能否实现大模型性能?这篇论文你必须估摸一下!
如果把卷积网络设计变成一个数学问题,那会如何?【原文+代码】
为什么现在的大模型都decoder-only?这3篇必读论文给你答案!
即插即用模块,让模型say:我不确定,训练速度提升180倍!
深度学习新动向:液态神经网络拿下Nature子刊!10种最新创新思路
必将成为发论文神器:大模型结合小模型,10种最新创新思路
聚类算法新突破:K-means聚类改进刷新SOTA,计算吞吐量提高300%!9种创新思路借鉴
AI有后悔药吃吗?machine unlearning告诉你【代码+原文】
RFAConv助力YOLOv8 再涨2个点
如何渗透大模型幻觉?看这3篇就够了!已经可以先发制人检测幻觉了!
具身机器人结构化建模新热潮:掩码注意力增强Transformer,通杀MLP和基线T模型!
大模型浪潮下的时间序列预测:透彻了解2种热门工作方法,4篇优秀论文
面向物理科学的可解释机器学习
显式考虑异质性不流行了? 神经片状传播才是主流!最有实力的异构图神经网络来袭!
修改一行代码,简单有效涨点! 频率域通道注意力结合最新方法
今年读到最震撼的一本书《因果关系》,9.4高分必读!
我万一没考上呢?我该怎么办?
如何1小时训练你的多模态大模型用于下游任务
即插即用的注意力模块激活更多有用的像素
Attention永不言败!损失函数+注意力机制再战性能巅峰,10种结合思路!
用Mamba设计1.8M参数UNet,比U-Mamba小近100倍,精度依旧完成超车!
Github星标12.2k:神经网络画图100+页模板,深度学习论文画图再也不用愁!
最新SOTA:更轻更强ViT分割模型,重新思考轻量化CNN与Transformer的关系
结合创新:Patch+Transformer,计算成本狂降4倍!12种创新思路借鉴
原来早就有人可视化了CNN,这个学习工具100%有效果
【MATLAB论文复现】研一研二必看!MATLAB论文如何从代码到公式完整复现?看完这个你就彻底懂了!草履虫都能学会!
大模型都在用的注意力加速优化Flash Attention到底稳定吗?#Wasserstein距离 #数值偏差