V
主页
[动手写bert系列] 01 huggingface tokenizer (vocab,encode,decode)原理及细节
发布人
https://github.com/chunhuizhang/bilibili_vlogs/tree/master/hugface
打开封面
下载高清视频
观看高清视频
视频下载器
bert-代码详解
【手把手带你实战HuggingFace Transformers-入门篇】基础知识与环境安装
从0训练一个GPT的tokenizer(3) 中英双语
大语言模型理论基础 (1-tokenizer)
Bert源码复现!逐行手写代码!看完即看懂!
【手把手带你实战HuggingFace Transformers-入门篇】基础组件之Tokenizer
01 概念扫盲 Transformers / Tokenizer / Pipeline
【Pytorch实战】基于Bert实现文本分类
HuggingFace简明教程,BERT中文模型实战示例.NLP预训练模型,Transformers类库,datasets类库快速入门.
HuggingFace 10分钟快速入门(一),利用Transformers,Pipeline探索AI。
词向量 | Bert | 原理简介+代码简析
从0训练一个GPT的tokenizer
Hugging Face官方课程 Huggingface Transformers
人生苦短,我用Huggingface!4小时带你搞定NLP硬核工具库开源社区Huggingface核心模块解读—transformer/BERT实战
Hugging Face 系列视频(一):Hugging Face 及 Transformer/Datasets/Tokenizers库简介
【手写ChatGPT - 1/3】实现BPE Tokenizer
[QKV attention] kv-cache、decoder only vs. BERT, 单向注意力 vs. 双向注意力
大语言模型LLM基础之Tokenizer完全介绍
七个实战任务,玩转自然语言处理,基于HuggingFace和PyTorch
[动手写 bert 系列] BertTokenizer subword,wordpiece 如何处理海量数字等长尾单词
[动手写 bert 系列] torch.no_grad() vs. param.requires_grad == False
[全栈深度学习] 01 docker 工具的基本使用及 nvidia cuda pytorch 镜像
[动手写 bert 系列] 解析 bertmodel 的output(last_hidden_state,pooler_output,hidden_state)
[bert、t5、gpt] 10 知识蒸馏(knowledge distill)初步,模型结构及损失函数设计
[动手写 bert 系列] Bert 中的(add & norm)残差连接与残差模块(residual connections/residual blocks)
[动手写 bert 系列] 02 tokenizer encode_plus, token_type_ids(mlm,nsp)
[LLMs tuning] 01 trl SFTTrainer 中的 formatting_func 与 DataCollatorForCompletion
[LLMs 实践] 02 LoRA(Low Rank Adaption)基本原理与基本概念,fine-tune 大语言模型
[bert、t5、gpt] 04 构建 TransformerEncoderLayer(FFN 与 Layer Norm、skip connection)
[五分钟系列] 01 gensim embedding vectors 距离及可视化分析
[LLMs inference] quantization 量化整体介绍(bitsandbytes、GPTQ、GGUF、AWQ)
[BERT 番外] Sin Position Encoding 的简洁实现(RoPE 基础)
[蒙特卡洛方法] 01 从黎曼和式积分(Reimann Sum)到蒙特卡洛估计(monte carlo estimation)求积分求期望
[bert、t5、gpt] 05 构建 TransformerDecoderLayer(FFN 与 Masked MultiHeadAttention)
[动手写bert] bert pooler output 与 bert head
[pytorch 强化学习] 01 认识环境(environment,gym.Env)以及 CartPole-v0/v1 环境
[动手写bert系列] BertSelfLayer 多头注意力机制(multi head attention)的分块矩阵实现
[LLMs 实践] 03 LoRA fine-tune 大语言模型(peft、bloom 7b)
[pytorch distributed] 01 nn.DataParallel 数据并行初步
[动手写 bert 系列] bert model architecture 模型架构初探(embedding + encoder + pooler)