V
主页
[pytorch模型拓扑结构] nn.MultiheadAttention, init/forward, 及 query,key,value 的计算细节
发布人
动手写bert系列:https://space.bilibili.com/59807853/channel/collectiondetail?sid=496538 pytorch系列:https://space.bilibili.com/59807853/channel/collectiondetail?sid=446911
打开封面
下载高清视频
观看高清视频
视频下载器
[pytorch 模型拓扑结构] 深入理解 nn.CrossEntropyLoss 计算过程(nn.NLLLoss(nn.LogSoftmax))
【LLM前沿】6小时精讲四大多模态大模型CLIP BLIP VIT MLLM及对话机器人办公助手!绝对的通俗易懂的大模型应用教程!
多头注意力(Multi-Head Attention)
[pytorch] [求导练习] 04 前向计算与反向传播与梯度更新(forward,loss.backward(), optimizer.step)
西交|深度学习研讨班-4|从Attention到Transformer再到Mamba
[动手写bert系列] 01 huggingface tokenizer (vocab,encode,decode)原理及细节
[pytorch 网络模型结构] 深入理解 nn.BatchNorm1d/2d 计算过程
[pytorch 网络拓扑结构] 深入理解 nn.LayerNorm 的计算过程
[pytorch 神经网络拓扑结构] pad_sequence/pack_padded_sequence 时序模型如何处理不定长输入
6 BERT模型训练3-损失函数构建、模型训练
[pytorch] torch.nn.Bilinear 计算过程与 einsum(爱因斯坦求和约定)
[动手写Bert系列] bertencoder self attention 计算细节及计算过程
[pytorch 模型拓扑结构] 深入理解 nn.BatchNorm2d/3d
还是太全面了!NLP十天起飞,一口气学完文本分类、文本摘要、机器翻译、知识图谱、情感分析等十大技术点!算法原理+论文解读,草履虫都能学会!大模型|机器学习
[bert、t5、gpt] 05 构建 TransformerDecoderLayer(FFN 与 Masked MultiHeadAttention)
【共享LLM前沿】假如我从11月1号开始学大模型!9小时学会搭建对话机器人办公助手、大模型预训练微调、四大多模态大模型!
[调包侠] 使用 PyTorch Swin Transformer 完成图像分类
[动手写神经网络] 01 认识 pytorch 中的 dataset、dataloader(mnist、fashionmnist、cifar10)
[动手写bert系列] BertSelfLayer 多头注意力机制(multi head attention)的分块矩阵实现
[pytorch] [求导练习] 06 计算图(computation graph)细节之 retain graph(multi output/backwar)
[模型拓扑接口] 经典 RNN 模型(一)模型参数及训练参数的介绍
【统计学】p-value(p值) 与 z-score(标准分/z得分/z分数)定义,计算以及适用场景
[pytorch 强化学习] 10 从 Q Learning 到 DQN(experience replay 与 huber loss / smooth L1)
【ResNet+Transformer】基于PyTorch的迁移学习残差网络Resnet,细胞分类任务、ViT、DERT目标检测
[PyTorch] Dropout 基本原理(前向计算与自动求导)
【深度学习环境搭建】01 本机、GPU服务器端深度学习环境搭建(代码、数据共享)
[pytorch 强化学习] 07 迷宫环境(maze environment)Q Learning(value iteration)求解(策略关闭 off)
[[bert、t5、gpt] 03 AttentionHead 与 MultiHeadAttention
[pytorch 模型拓扑结构] 深入理解 nn.BCELoss 计算过程及 backward 及其与 CrossEntropyLoss 的区别与联系
什么是层归一化LayerNorm,为什么Transformer使用层归一化
[diffusion] 生成模型基础 VAE 原理及实现
神经网络绘图简直是太容易了!
直观理解Vision Transformer(ViT)及Diffusion Models使用扩散模型进行图像合成,
【自学大模型】9小时学懂大模型预训练微调及四大多模态大模型!讯飞大佬通俗易懂讲解如何构建对话机器人办公助手!RLHF、transformer、CLIP、ViT
这才是科研人该学的【YOLO算法全系列】,一口气学完目标检测yolov1-v11,100集算法原理+项目实战,通俗易懂,草履虫都能轻松学会!机器学习|深度学习
[pytorch] nn.Embedding 前向查表索引过程与 one hot 关系及 max_norm 的作用
Transformer真的不难啊!100集带你逐层分解Transformer模型——注意力机制、神经网络、位置编码、编码器、解码器等!算法原理+实战,通俗易懂!
[Python 机器学习] 深入理解 numpy(ndarray)的 axis(轴/维度)
赶在末班船前去岛上紬的灯塔处
[pytorch] 深入理解 nn.KLDivLoss(kl 散度) 与 nn.CrossEntropyLoss(交叉熵)