V
主页
【领域展开】新LSTM架构王者归来,结合LLM几乎碾压Transformer,扩展到数十亿参数未来可期
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
24年发论文论文捷径:Mamba+必备的13种结合创新思路
如何让深度强化学习准确的理解和应对不确定性? 卡尔曼滤波居然是解药!
知识蒸馏新变革-Hyena:根本解决预训练过程效率 将Transformer蒸馏到长卷积模型
topos theory视角分析Transformer神经网络,注意力机制居然是关键创新? 含55种注意力机制创新
名为CAT的卷积增强Transformer:必学的卷积+注意力新混合架构设计
LSTM之父团队力作来了!加速扩散模型牛出天际,简单有效且无需训练 #交叉注意力
小目标检测重大进展:速度提升10倍!GPU内存占用少73.4%-11种创新思路
GNN与Transformer融合之2024最新创新路径,包含16种创新方法
求解偏微分方程最佳方案首秀! 结合傅里叶和机器学习 超越物理信息神经网络
Transformer提升效率的最好方法:频域核化,成本大幅降低 推理加速
异常检测发论文新方向,15种创新思路一次看完!
魔改transformer大全,最新变体直接替代传统注意力,22种最佳魔改 #视觉主干 #视觉Transformer
香港大学多元时间序列测新方法,结合Transformer魔改版【原文+代码】
几何Transformer都用上了!全新逆向蛋白质序列设计荣登Nature,计算速度快10倍
一个不太卷的方向:时序卷积回归赛道,ICLR高分论文给你惊喜!
性能恐怖的BERT新变体:用0.3%神经元实现与BERT模型参数推理,实现78倍加速
Point TransformerV3:打破注意力机制范式,简化且高效的3D点云 #3D数据处理
【2024最新】AI大模型入门教程(65集精讲)真正的保姆级零基础入门教程!深度学习基础+大模型相关算法+神经网络,大模型入门必学!
神经辐射场的天花板: 首揭NeRF多GPU扩展定律 均衡分配计算负载最好手法
几乎优化任意损失函数,不使用一阶信息的新boosting算法,偏移量预言机是关键!
回顾60多种transformer研究,总结遥感领域最新进展(附原文和代码)
小模型也有智能,训练数据比模型架构更重要
还在愁如何画出好看的深度神经网络图?2个工具帮你拿捏!附带模板
Transformer&NLP入门必备:北大大佬手把手带你从理论到实战 (附解读教程+代码)
多模态图像融合全新里程碑:性能暴涨至99.48%,效率提升4倍!11种改进思路
Al领域发顶会,怎么确定论文topic?#人工智能 #论文 #人工智能论文
Github破10万星标!Auto-GPT之后,Transformer新里程碑:Transformers库
人工智能领域怎么找论文、代码以及学习资料#人工智能 #人工智能论文#论文
Visual Transformer综述,涵盖100多种不同ViT模型#人工智能 #ai #论文#transformer
2024终于有人把Transformer架构应用及其算法讲清楚了!迪哥精讲BERT、Swin、DETR、VIT四大核心模型,原理讲解+论文解读+代码复现!
200元显卡大战Qwen2.5-32B,垃圾佬也想跑本地大模型,P104双卡Linux下Ollama跑Local LLM
如何做3D多模态创新?统一所有模态的3D范式开源了! 仅需训练1%的参数量超越SOTA!
ViT性能提升必备!9个视觉Transformer最新改进方法汇总
TreeLSTM01—基于树结构的长短期记忆网络进行语义表示上的改进【NLP情感分析】
【速领】AI领域发论文找新方向必瞄报告!
【人工智能基础】第52讲:Transformer模型(2)-张宏利主讲
深挖Transformer模型优越性能原因,梯度Mesa优化算法!【原文+代码】
注意力机制创新点都在这里了!51种魔改方法掌握了吗?
SegNet01—语义分割必读算法【CV图像分割】
8个超牛可视化Demo!一次搞懂Transformer和GPT等各大语言模型