V
主页
Transformer模型(2/2): 从Attention层到Transformer网络
发布人
Transformer模型是目前机器翻译等NLP问题最好的解决办法,比RNN有大幅提高。这节课和上节课讲解Transformer模型。这节课的内容是 用Attention层与Self-Attention层搭建深度神经网络——Transformer模型。 课件:https://github.com/wangshusen/DeepLearning
打开封面
下载高清视频
观看高清视频
视频下载器
BERT (预训练Transformer模型)
Transformer模型(1/2): 剥离RNN,保留Attention
这绝对是2024全网最好的Transformer教程,清华大佬60集强力打造,手把手带你构建基于transformer的语言模型!
90分钟串讲Attention-Transformer-BERT-GPT
Vision Transformer (ViT) 用于图片分类
RNN模型与NLP应用(8/9):Attention (注意力机制)
行为序列02:DIN模型(注意力机制)
RNN模型与NLP应用(4/9):LSTM模型
【全300集】清华大学2024版Transformer教程!入门到进阶,全程干货讲解!拿走不谢!(神经网络/NLP/深度学习/BERT/大模型/GPT/RNN)
RNN模型与NLP应用(3/9):Simple RNN模型
吹爆!B站最好的Transformer架构应用及其算法解读,VIT/Swin/DETR模型全详解,学不会你来打我!
召回06:双塔模型——模型结构、训练方法
RNN模型与NLP应用(2/9):文本处理与词嵌入
排序01:多目标模型
RNN模型与NLP应用(6/9):Text Generation (自动文本生成)
RNN模型与NLP应用(7/9):机器翻译与Seq2Seq模型
神经网络结构搜索 (3/3): 可微方法 Differentiable Neural Architecture Search
Few-Shot Learning (2/3): Siamese Network (孪生网络)
RNN模型与NLP应用(1/9):数据处理基础
RNN模型与NLP应用(5/9):多层RNN、双向RNN、预训练
【比刷剧还爽!】从入门到精通CNN、RNN、GAN、GNN、DQN、Transformer、LSTM等八大深度学习神经网络一口气学完!
召回02:Swing 模型
好发论文新方向:KAN+Transformer,新SOTA准确率达99.86%!7种创新思路
排序05:排序模型的特征
Few-Shot Learning (1/3): 基本概念
2-2: 二分查找 Binary Search
召回01:基于物品的协同过滤(ItemCF)
召回09:双塔模型+自监督学习
物品冷启01:优化目标 & 评价指标
30分钟吃透Transformer架构!pytorch从0实现! | 代码逐行讲解 | 源码开放 | 高效入门
行为序列03:SIM模型(长序列建模)
吹爆!这绝对是南京大学最出名的LLAMA3教程了没有之一,llama3原理代码精讲与微调量化部署实战,通俗易懂太适合小白了!人工智能|机器学习|深度学习
召回10:Deep Retrieval 召回
手把手教学代码调试、详解深度学习维度报错、摘取2024最新注意力机制插入模型中
特征交叉04:SENet 和 Bilinear 交叉
Few-Shot Learning (3/3):Pretraining + Fine Tuning
特征交叉01:Factorized Machine (FM) 因式分解机
特征交叉03:LHUC (PPNet)
详解深度学习如何使用自己的数据集跑通项目并改进,图像分类、分割、检测等项目具体实例讲解
行为序列01:用户历史行为序列建模