V
主页
51-注意力机制-Transformer-encoder原理和代码实现-自然语言处理-pytorch
发布人
Transformer模型利用attention机制实现了并行化捕捉序列依赖,并且同时处理序列的每个位置的tokens,这个优势使得Transformer模型在性能优异的同时大大减少了训练时间。
打开封面
下载高清视频
观看高清视频
视频下载器
61-优化算法-AdaDelta算法代码实现与深度学习-pytorch
45-注意力机制-注意力提示-自然语言处理-pytorch
77-BERT训练环节(代码实现)-预训练模型-自然语言处理-深度学习-pytorch
47-注意力机制-注意力评分实现-自然语言处理-pytorch
50-自注意力(self-attention)和位置编码(Positional Encoding)-自然语言处理-pytorch
86-中文自动生成任务-GPT2效果预测(代码实现)-自然语言处理-深度学习-pytorch
38-GRU原理和代码实现-自然语言处理-pytorch
37-循环神经网络RNN-反向传播数学细节-自然语言处理-pytorch-new
48-注意力机制-Bahdanau注意力实现-自然语言处理-pytorch
67-计算性能-用Pytorch几行代码实现多GPU加速-深度学习
19-多层感知机(mlp)-API最简单的方式实现-2021(pytorch)
70-Word2Vector训练之数据集处理(代码实现)-词嵌入模型-自然语言处理-深度学习-pytorch
39-LSTM原理和代码实现-自然语言处理-pytorch
34-循环神经网络RNN-隐藏状态和困惑度-自然语言处理-pytorch
44-机器翻译seq2seq模型训练-自然语言处理-pytorch
78-情感分析数据预处理-NLP应用-自然语言处理-深度学习-pytorch
84-中文自动生成任务-GPT2数据处理(代码实现)-自然语言处理-深度学习-pytorch
76-BERT训练数据格式整理(代码实现)-预训练模型-自然语言处理-深度学习-pytorch
81-自然语言推断模型训练-Attention加Mlp-NLP应用-自然语言处理-深度学习-pytorch
52-注意力机制-Transformer-decoder原理和实现-自然语言处理-pytorch
74-词向量模型应用词相似性类比任务(代码实现)-词嵌入模型-自然语言处理-深度学习-pytorch
22-drop out原理和实现-过拟合解决方案-2021-pytorch
69-负采样和Hierarchical Softmax-词嵌入模型-自然语言处理-深度学习-pytorch
60-优化算法-RMSProp算法与深度学习-pytorch
32-循环神经网络RNN-文本预处理-自然语言处理-pytorch
55-优化算法-梯度下降与深度学习-牛顿法-收敛性分析-pytorch
1-深度学习第一棒,先敲一敲再说!-2021
72-GloVe(Global Vectors)全局向量的词嵌入-词嵌入模型-自然语言处理-深度学习-pytorch
53-优化算法与Deeplearning关系-深度学习-pytorch
31-循环神经网络RNN-序列模型-自然语言处理-pytorch
43-机器翻译Encoder和Decoder架构-seq2seq-自然语言处理-pytorch
超强动画演示,手把手深入浅出讲解大模型是如何训练模型的?!太通俗易懂了,草履虫都能轻松学会!深度学习|大模型|注意力机制|计算机视觉|自然语言处理
[动手写神经网络] 手动实现 Transformer Encoder
超全超简单!一口气刷完CNN、RNN、GAN、GNN、DQN、Transformer、LSTM、DBN等八大深度学习神经网络算法!真的比刷剧还爽!
56-优化算法-随机梯度下降与深度学习-pytorch
85-中文自动生成任务-GPT2模型训练(代码实现)-自然语言处理-深度学习-pytorch
17-多层感知机概念-激活函数哪个好-基于pytorch应用
21-过拟合怎么办-权重衰减真香-pytorch-2021
80-自然语言推断数据预处理-NLP应用-自然语言处理-深度学习-pytorch
3-pytorch基础数据操作代码练习-深度学习