V
主页
Transformer和BERT看不懂来这里,告诉你他们的前世今生,必能懂
发布人
我们为什么要从预训练语言模型的前世今生去讲解 Transformer 和 BERT 呢?什么是预训练,什么是语言模型,为什么它会存在一个前世今生呢?一步一步的讲解,将让你明白 BERT 的出现并不是横空出世,它是集大成者,也是人类智慧的结晶,引领人工智能领域…… 博客配套视频链接: https://space.bilibili.com/383551518?spm_id_from=333.1007.0.0 b 站直接看 配套 github 链接:https://github.com/nickchen121/Pre-training-language-model 配套博客链接:https://www.cnblogs.com/nickchen121/p/15105048.html
打开封面
下载高清视频
观看高清视频
视频下载器
HuggingFace简明教程,BERT中文模型实战示例.NLP预训练模型,Transformers类库,datasets类库快速入门.
69 BERT预训练【动手学深度学习v2】
Transformer论文逐段精读【论文精读】
手推transformer
68 Transformer【动手学深度学习v2】
【Transformer模型】曼妙动画轻松学,形象比喻贼好记
Transformer 的 Pytorch 代码实现讲解
BERT 论文逐段精读【论文精读】
Transformer库和BERT模型快速入门,基于BERT实现中文新闻分类
Transformer从零详细解读(可能是你见过最通俗易懂的讲解)
03 什么是预训练(Transformer 前奏)
BERT从零详细解读,看不懂来打我
在线激情讲解transformer&Attention注意力机制(上)
BERT模型介绍
Transformer代码(源码Pytorch版本)从零解读(Pytorch版本)
真-极度易懂的BERT
16 Transformer的编码器(Encodes)——我在做更优秀的词向量
全网最透彻的注意力机制的通俗原理与本质【推荐】
05 神经网络语言模型(独热编码+词向量 Word Embedding 的起源)
64 注意力机制【动手学深度学习v2】
10 Transformer 之 Self-Attention(自注意力机制)
强烈推荐!台大李宏毅自注意力机制和Transformer详解!
BERT模型实战教程:基于BERT模型的文本分类、情感分析及中文命名实体识别实战教程,迪哥带你玩转NLP核心框架—BERT模型!(人工智能/深度学习)
1401 位置编码公式详细理解补充
02 没人用的 GPT 原来这么容易理解
研一投两篇sci的我,强推这些Up导师,太顶了,互联网真导
八分钟精通 ResNet 残差网络(思想,公式,代码)--计算机视觉系列 01【推荐】
05 BERT 的下句预测,从本质上理解(NSP)
14 Transformer之位置编码Positional Encoding (为什么 Self-Attention 需要位置编码)
1001 Attention 和 Self-Attention 的区别(还不能区分我就真的无能为力了)
BERT的PyTorch实现
01 通过 Pytorch 构建 Transformer 框架课程介绍(拿什么打倒你的面试对手呢?坚决不做调包侠)
19 Transformer 解码器的两个为什么(为什么做掩码、为什么用编码器-解码器注意力)
李宏毅-ELMO, BERT, GPT讲解
06 Word2Vec模型(第一个专门做词向量的模型,CBOW和Skip-gram)
手把手教你写transformer bert 保姆级教学 你学会了吗
03 BERT,集大成者,公认的里程碑
图解BERT
0201 为什么 Pytorch 定义模型要有一个 init 和一个 forward,两者怎么区分
VIT (Vision Transformer) 模型论文+代码(源码)从零详细解读,看不懂来打我