V
主页
[动手写 bert 系列] BertTokenizer subword,wordpiece 如何处理海量数字等长尾单词
发布人
https://github.com/chunhuizhang/bilibili_vlogs/blob/master/fine_tune/bert/tutorials/04_subword_wordpiece_tokenizer.ipynb
打开封面
下载高清视频
观看高清视频
视频下载器
[动手写Bert系列] bertencoder self attention 计算细节及计算过程
[动手写bert系列] 01 huggingface tokenizer (vocab,encode,decode)原理及细节
[动手写 bert 系列] 02 tokenizer encode_plus, token_type_ids(mlm,nsp)
[动手写 bert 系列] 解析 bertmodel 的output(last_hidden_state,pooler_output,hidden_state)
[动手写 bert 系列] bert embedding 源码解析,word_embedding/position_embedding/token_type
[动手写 bert 系列] bert model architecture 模型架构初探(embedding + encoder + pooler)
[pytorch模型拓扑结构] nn.MultiheadAttention, init/forward, 及 query,key,value 的计算细节
[bert、t5、gpt] 01 fine tune transformers 文本分类/情感分析
[BERT 番外] Sin Position Encoding 的简洁实现(RoPE 基础)
[pytorch 强化学习] 01 认识环境(environment,gym.Env)以及 CartPole-v0/v1 环境
[动手写 bert 系列] Bert 中的(add & norm)残差连接与残差模块(residual connections/residual blocks)
[LLMs 实践] 04 PEFT/LoRA 源码分析
[bert、t5、gpt] 10 知识蒸馏(knowledge distill)初步,模型结构及损失函数设计
[bert、t5、gpt] 11 知识蒸馏(knowledge distill)huggingface trainer pipeline
[[bert、t5、gpt] 02 transformer 架构 scaled dot product self attention(qkv)
[bert、t5、gpt] 05 构建 TransformerDecoderLayer(FFN 与 Masked MultiHeadAttention)
[bert、t5、gpt] 09 T5 整体介绍(t5-11b,T5ForConditionalGeneration)
[动手写bert系列] BertSelfLayer 多头注意力机制(multi head attention)的分块矩阵实现
【深度学习环境搭建】01 本机、GPU服务器端深度学习环境搭建(代码、数据共享)
[动手写bert] bert pooler output 与 bert head
[动手写神经网络] 01 认识 pytorch 中的 dataset、dataloader(mnist、fashionmnist、cifar10)
[[bert、t5、gpt] 03 AttentionHead 与 MultiHeadAttention
[动手写 bert] masking 机制、bert head 与 BertForMaskedLM
[bert、t5、gpt] 06 GPT2 整体介绍(tokenizer,model forward)
[pytorch 强化学习] 02 将 env rendering 保存为 mp4/gif(以 CartPole 为例,mode='rgb_array')
[pytorch 强化学习] 06 迷宫环境(maze environment)SARSA(Q-table,value iteration)求解
[bert、t5、gpt] 04 构建 TransformerEncoderLayer(FFN 与 Layer Norm、skip connection)
[Python 机器学习] 深入理解 numpy(ndarray)的 axis(轴/维度)
[强化学习基础 01] MDP 基础(概率转移,与POMDP、I-POMDP)
[pytorch 强化学习] 03 动手写迷宫环境(maze env)状态及动作策略初步(及动画保存)
[QKV attention] kv-cache、decoder only vs. BERT, 单向注意力 vs. 双向注意力
[pytorch 强化学习] 10 从 Q Learning 到 DQN(experience replay 与 huber loss / smooth L1)
[pytorch 神经网络拓扑结构] pad_sequence/pack_padded_sequence 时序模型如何处理不定长输入
[全栈算法工程师系列] python deepcopy(深拷贝,clone,克隆)性能优化(浅拷贝+递归)
【数字图像处理】HoG+SVM+NMS行人检测(pedestrian detection)(python-opencv)
【统计学】p-value(p值) 与 z-score(标准分/z得分/z分数)定义,计算以及适用场景
[pytorch 强化学习] 07 迷宫环境(maze environment)Q Learning(value iteration)求解(策略关闭 off)
[LLMs 实践] 221 llama2 源码分析 generate 的完整过程
[bert、t5、gpt] 07 GPT2 decoding (greedy search, beam search)
[LLM & AIGC] 03 openai embedding (text-embedding-ada-002)基于 embedding 的文本语义匹配