V
主页
[动手写神经网络] 03 自定义 CNN 模型适配新的数据集 CIFAR10(适配+简单调参)
发布人
本期code:https://github.com/chunhuizhang/bilibili_vlogs/blob/master/dl/tutorials/03_cnn_on_cifar10.ipynb cnn on mnist:https://www.bilibili.com/video/BV1954y1N7bh/?spm_id_from=333.999.0.0 动手写神经网络:https://space.bilibili.com/59807853/channel/collectiondetail?sid=581905 pytorch系列:https://space.bilibili.com/59807853/channel/collectiondetail?sid=446911
打开封面
下载高清视频
观看高清视频
视频下载器
[动手写神经网络] 05 使用预训练 resnet18 提升 cifar10 分类准确率及误分类图像可视化分析
[动手写神经网络] 01 认识 pytorch 中的 dataset、dataloader(mnist、fashionmnist、cifar10)
[动手写神经网络] 04 使用预训练 vgg 提升 cifar10 分类准确率
[动手写神经网络] 06 自定义(kaggle)数据集(custom dataset)、Dataloader,及 train test valid 数据集拆分
【python 信号与系统】02 scipy.signal.convolve2d 二维(图像)卷积及其与 CNN 的区别
[pytorch 网络拓扑结构] 深入理解 nn.LayerNorm 的计算过程
[动手写神经网络] 08 WandB(weights & biases)深度学习调参利器
[动手写神经网络] 如何对数据集归一化(transforms.Normalize)以 mnist 数据集为例(mean=0.1307, std=0.3081)
[动手写神经网络] 02 逐行写代码 CNN pipeline 图像分类(模型结构、训练、评估)
[bert、t5、gpt] 10 知识蒸馏(knowledge distill)初步,模型结构及损失函数设计
【计算机视觉】cnn/maxpool 输入输出 shape 的变化与kernel size、pool size、stride size,padding=same
【python 运筹】约束满足规划问题 | CP-SAT solver | ortools | 自定义打印所有可行解的回调函数
[动手写神经网络] 如何设计卷积核(conv kernel)实现降2采样,以及初探vggnet/resnet 卷积设计思路(不断降空间尺度,升channel)
[pytorch 强化学习] 13 基于 pytorch 神经网络实现 policy gradient(REINFORCE)求解 CartPole
不愧是“KAN”爷!KAN+小波转换碾压传统深度神经网络!
[动手写神经网络] 如何对数据集(ImageNet) denormalize(inverse normalize)还原为原来的均值和标准差(mean/std)
[调包侠] 04 使用预训练模型进行图像特征向量提取(image feature extractor,img2vec)并进行相似性计算
[性能测试] 03 单 4090 BERT、GPT2、T5 TFLOPS 测试及对比 3090TI
[pytorch 强化学习] 10 从 Q Learning 到 DQN(experience replay 与 huber loss / smooth L1)
[动手写神经网络] 07 预训练 resnet 解决 kaggle weather dataset(validation dataset)的使用
【flask web 核心】03 前后端分离(传输 matplotlib 图像到前端),图像编码(base64)与数据传输(render_template)
[LLMs 实践] 19 llama2 源码分析 RoPE apply_rotary_emb 从绝对位置编码到相对位置编码
[pytorch 模型拓扑结构] 深入理解 nn.BatchNorm2d/3d
[动手写神经网络] 手动实现 Transformer Encoder
[pytorch 网络拓扑结构] 深度理解 nn.BatchNorm1d
[pytorch 神经网络拓扑结构] pad_sequence/pack_padded_sequence 时序模型如何处理不定长输入
[数值计算] 快速计算、秒算大数乘除运算,对数变换将乘除变为加减,再通过查表(logarithm table)获得10-99之间的对数值
【手推公式】xgboost自定义损失函数(cross entropy/squared log loss)及其一阶导数gradient二阶导数hessian
[模型拓扑接口] 经典 RNN 模型(一)模型参数及训练参数的介绍
[AI 核心概念及计算] 概率计算 01 pytorch 最大似然估计(MLE)伯努利分布的参数
[pytorch] [求导练习] 03 计算图(computation graph)及链式法则(chain rule)反向传播过程
[实战kaggle系列] 1. 使用 kaggle 命令行 api,进行数据集的下载
[强化学习基础 01] MDP 基础(概率转移,与POMDP、I-POMDP)
[pytorch 模型拓扑结构] 深入理解 nn.BCELoss 计算过程及 backward 及其与 CrossEntropyLoss 的区别与联系
[AI 核心概念及计算] 优化 01 梯度下降(gradient descent)与梯度上升(gradient ascent)细节及可视化分析
[[bert、t5、gpt] 03 AttentionHead 与 MultiHeadAttention
[数值计算] 快速计算、妙算对数,之对数表(logarithm table)的使用,如何将任意一个数转换为10-99,或0-0.99之间的可查表形式
[pytorch] torch.nn.Bilinear 计算过程与 einsum(爱因斯坦求和约定)
[蒙特卡洛方法] 04 重要性采样补充,数学性质及 On-policy vs. Off-policy
[DRL] 从 TRPO 到 PPO(PPO-penalty,PPO-clip)