V
主页
神经网络加上注意力机制,精度反而下降,为什么会这样呢?
发布人
辣辣酱整理所有人工智能学习资源无偿分享给大家!可微信公宗号 ai小技巧 中回复“999”免费获取哦, 资料包含: 【一】2023-人工智能+顶刊顶会论文合集 124个方向,主要包括:目标检测、AIGC、Transformer、边缘检测、点云等636篇论文。 【二】2023-人工智能前沿精选优质论文合集 15个大方向,包括:计算机视觉、自然语言处理NLP、医疗、3D重建、遥感影像等上千篇论文及代码。 【三】2023-AI相关专业论文写作最全指南 14个专题教程,主要包括:SCI写作、顶刊顶会投稿、答辩、润色、硕博专用写作工具等优质
打开封面
下载高清视频
观看高清视频
视频下载器
研究生话题:深度学习中创新点小,但是有效果,这种情况下可以发论文吗?
为何中国人迷恋吴恩达的机器学习课?
为什么我感觉学Python,学到后面完全是在学别人封装好的模块?
有一些超级难的算法比如遗传算法、蚁群算法,看了数学建模国赛,感觉好难写,那些人怎么写出来的?
PyTorch 有哪些坑bug?
读博期间,大家如何处理比较幼稚的idea?
深度学习中Batch Nomalization为什么效果好?
研究生话题:对自己深度学习方向的论文有idea,可是工程实践能力跟不上,实验搞不定怎么办?要不要魔改网络?
如何看到CV领域一些研究者蜜汁崇拜何恺明?
谁能教教我!深度学习神经网络到底怎么改代码啊?
为什么有些人宁愿花费很多时间去自己手工配置Python环境,也不用Anaconda?
深度学习硕士毕业论文工作量不够怎么办?
入门机器学习/深度学习要多长时间?
研究生话题:对于神经网络,硕士博士不需要弄明白原理,只需要应用,是这样吗?
为什么有些学教学的看不惯甚至鄙视Deep Learning?
AI研究生不要走入魔改网络的误区
100%涨点!注意力机制这么用,24种注意力机制魔改方法一下学会
如何简单、通俗地理解Transformer?
实验室研二师妹说他在YOLO-v5里面加了transformer网络是什么水平?
[水论文]即插即用的下采样模块,HWD,该模块可以很容易地集成到cnn中,以增强语义分割模型的性能
【CV教程】通过归纳偏置从深度学习中发现符号模型(论文解读)
如何理解计算机视觉中的注意力机制?
ICCV 2023最佳学生论文!跟踪一切模型!遮挡也不怕随时随地跟踪所有内容!
为什么有的计算机本科生就能发表顶会,但是许多博士生还是一篇都没有?
2024年会有大量的小模型开始爆发,自动驾驶、机器人等场景与小模型结合会大放异彩,mixtral-offloading运行Mistral-8x7
我不管,反正成功了
AI论文精读01|涨点神器:清华提出Agent注意力机制
深度学习顶会,为什么已经公开数据集、代码了,但还是跑不出论文的结果?
【沈向洋带你读论文】张祥雨解读RepLKNet:重新审视CNN中的大卷积核问题【计算机视觉】【模型架构】
[水论文] D-LKA 大核注意力机制
卷积一生,不弱于人!新CNN架构挑战Transformer霸主地位!!-深度学习/神经网络/卷积神经网络
研究生话题:你博士期间发表了几篇sci?
为什么强大的MXNet一直火不起来?
深度学习的可解释性方向的研究是不是巨坑?
不屑强敌!CNN被推向神坛!即将改成大模型Transformer大一统局面,腾讯联合港中大发表炸裂级论文,CNN搞多模态不弱于Transfromer!
深度学习的多个loss如何平衡?
研究生话题:你是什么时候对深度学习失去信心的?
研究生话题:读研最大的感受是什么?