V
主页
[动手写神经网络] 如何对数据集(ImageNet) denormalize(inverse normalize)还原为原来的均值和标准差(mean/std)
发布人
mnist training mean/std:https://www.bilibili.com/video/BV12K411f76T 动手写神经网络系列:https://space.bilibili.com/59807853/channel/collectiondetail?sid=581905
打开封面
下载高清视频
观看高清视频
视频下载器
[动手写神经网络] 如何对数据集归一化(transforms.Normalize)以 mnist 数据集为例(mean=0.1307, std=0.3081)
【统计】【excel】从均值(average)、标准差(stdevp)、标准化(standardize)到相关系数(correl)
[动手写神经网络] 01 认识 pytorch 中的 dataset、dataloader(mnist、fashionmnist、cifar10)
[pytorch 强化学习] 13 基于 pytorch 神经网络实现 policy gradient(REINFORCE)求解 CartPole
[调包侠] 04 使用预训练模型进行图像特征向量提取(image feature extractor,img2vec)并进行相似性计算
[动手写神经网络] 04 使用预训练 vgg 提升 cifar10 分类准确率
[动手写神经网络] 03 自定义 CNN 模型适配新的数据集 CIFAR10(适配+简单调参)
[动手写神经网络] 如何设计卷积核(conv kernel)实现降2采样,以及初探vggnet/resnet 卷积设计思路(不断降空间尺度,升channel)
【手推公式】【销量预测】【回归分析】MAE与MSE在回归分析时的区别,为什么MSE倾向于回归均值,MAE倾向于回归中位数
[数据可视化] 绘制交互式 3d plot(interactive 3d plot, Axes3d) z=f(x, y) (三维空间中的 surface)
【手推公式】logistic regression 及其与 linear regression 的区别,对数线性与对数几率
[动手写神经网络] 06 自定义(kaggle)数据集(custom dataset)、Dataloader,及 train test valid 数据集拆分
[动手写bert系列] 01 huggingface tokenizer (vocab,encode,decode)原理及细节
【统计学】p-value(p值) 与 z-score(标准分/z得分/z分数)定义,计算以及适用场景
[pytorch 网络模型结构] batchnorm train 及 eval 模式的差异及(running_mean, running_var)的计算细节
[动手写神经网络] 08 WandB(weights & biases)深度学习调参利器
[动手写bert系列] BertSelfLayer 多头注意力机制(multi head attention)的分块矩阵实现
[pytorch 神经网络拓扑结构] pad_sequence/pack_padded_sequence 时序模型如何处理不定长输入
[动手写神经网络] 02 逐行写代码 CNN pipeline 图像分类(模型结构、训练、评估)
[动手写Bert系列] bertencoder self attention 计算细节及计算过程
[pytorch 强化学习] 03 动手写迷宫环境(maze env)状态及动作策略初步(及动画保存)
【机器学习中的数学】【概率论】正态分布的导数与拐点(inflection points)
【机器学习中的数学】【无穷级数】1/n^p(p-series)收敛性的证明
[AI 核心概念及计算] 概率计算 01 pytorch 最大似然估计(MLE)伯努利分布的参数
[蒙特卡洛方法] 04 重要性采样补充,数学性质及 On-policy vs. Off-policy
[动手写 bert] masking 机制、bert head 与 BertForMaskedLM
[数值计算] 快速计算、秒算大数乘除运算,对数变换将乘除变为加减,再通过查表(logarithm table)获得10-99之间的对数值
【回归分析】R2(coefficient of determination)的定义及计算(SSres、SStot)及图形化解释(graphical expla)
[矩阵分析] 旋转矩阵的计算机与应用(复平面,RoPE)
[动手写 bert 系列] Bert 中的(add & norm)残差连接与残差模块(residual connections/residual blocks)
[动手写 bert 系列] 02 tokenizer encode_plus, token_type_ids(mlm,nsp)
[pytorch 网络拓扑结构] 深入理解 nn.LayerNorm 的计算过程
[动手写bert] bert pooler output 与 bert head
[pytorch 强化学习] 07 迷宫环境(maze environment)Q Learning(value iteration)求解(策略关闭 off)
[pytorch] [求导练习] 04 前向计算与反向传播与梯度更新(forward,loss.backward(), optimizer.step)
[LLMs 实践] 11 gradient accumulation 显存优化 trick
[linux tools] tmux 分屏(终端复用器)
出ttd,std的塔(用r)
[LLMs 实践] 09 BPE gpt2 tokenizer 与 train tokenizer
[pytorch 强化学习] 08 CartPole Q learning 连续状态离散化(digitize 分桶)及 display_frame_as_gif