V
主页
京东 11.11 红包
两个纯Transformer组成一个强大的GAN并可扩展,达到SOTA接近性能!
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
Patch才是时序预测的王道?最新工作超越Transformer取得SOTA
【小样本合集】小样本学习必读的15篇顶会论文
打破GPT霸权! 液态神经网络刷新SOTA,10篇文献+源码+3个实战项目
Transformer都有哪些魔改?
训练时间降低70%,掩码Transformer扩散模型来了
表面缺陷自动检测的深度学习方法
如果把卷积网络设计变成一个数学问题,那会如何?【原文+代码】
为什么是神经网络可以学会任何东西?10分钟动画演示,附带GNN、RNN、LSTM、GAN、Transformer等八大神经网络算法解读!
昆仑万维首席颜水成新作:多头注意力迎来究极形态,性能爆表!仅需50-90%注意力头
马毅教授五年集大成之作:数学可解释的白盒Transformer,性能不输ViT
时序预测建模主流走法,多模型融合思路势不可挡! 轻松实现1+1+1>3效果
长时间序列预测登上Nature,预测淮确性提高了22.6%!5篇必读论文
ICML2023杰出论文:拒绝调参!【原文+代码】
最新几何Transformer模型登上Nature子刊!预测实现近10倍的速度提升,14种最新思路
AI有后悔药吃吗?machine unlearning告诉你【代码+原文】
神经网络是黑盒吗?用神经网络等同决策树打破这层理解
【新手必看】全网最好的深度学习算法入门教程!内含CNN、RNN、GAN、LSTM等经典算法基础,赶紧收藏!
【人工智能基础】第51讲:Transformer模型(1)-张宏利主讲
Meta重磅发布Llama 3.2:推动轻量级AI模型与多模态模型的全面应用
不到256KBMemory就实现了单片机上的神经网络训练,开销不到PyTorch的千分之一(附原文和代码)
GAN15 Maglev|化繁为简,重回巅峰?或许这才是12系列的延续
全体研究生注意:别再追求模型收敛了!一个Trick让模型更稳定
无需额外训练的多任务模型融合新范式
【人工智能基础】第52讲:Transformer模型(2)-张宏利主讲
CV结束了吗?Meta最新工作:无需监督“分割万物”的AI模型,CV高光时刻!【附论文+代码】
时间序列在数据embedding上有哪些创新? 盘点ICLR24最佳思路和工作
看懂这篇颠覆认知的研究后 你就会深挖自回归模型的潜力! 不止概率预测还可通用计算
谁信我用AI写小说赚了几万
Attention永不言败!损失函数+注意力机制再战性能巅峰,10种结合思路!
纯随机数学无限生成逼真3D世界【原文+代码】
解锁2024超强神经网络训练思路,低精度下也能SOTA!掌握后从此轻松炼丹!
强推!【transformer入门】不愧是北大教授王树森亲授!这可能是唯一一个把transformer底层逻辑原理讲清楚的教程了吧!(人工智能、深度学习、AI)
部署技巧之PAGCP剪枝Yolov5参数降低50%,速度翻倍
Transformer的上下文学习能力是哪来的?逆向工程解释transformer为你揭晓
基于回溯和模仿学习,自回归序列模型文本生成质量进一步提高
我敢说学习【NLP自然语言处理】只要看这个就够了,NLP中最重要的核心内容,不愧是大家一致仍可的教程-人工智能/机器学习/深度学习
顶会风向变了:小波变换+GNN发文量暴涨!新SOTA准确率近平100%!13篇必读文献
神经网络算法底层原理是什么?具体在解决什么事?迪哥精讲CNN/RNN/GAN/GNN/Transformer五大神经网络模型,带你玩转神经网络!
13种即插即用模块,涨点发文必备【原文+代码】