V
主页
[动手写神经网络] 03 自定义 CNN 模型适配新的数据集 CIFAR10(适配+简单调参)
发布人
本期code:https://github.com/chunhuizhang/bilibili_vlogs/blob/master/dl/tutorials/03_cnn_on_cifar10.ipynb cnn on mnist:https://www.bilibili.com/video/BV1954y1N7bh/?spm_id_from=333.999.0.0 动手写神经网络:https://space.bilibili.com/59807853/channel/collectiondetail?sid=581905 pytorch系列:https://space.bilibili.com/59807853/channel/collectiondetail?sid=446911
打开封面
下载高清视频
观看高清视频
视频下载器
基于matlab的卷积神经网络手写数字识别(程序+报告)
[pytorch distributed] 01 nn.DataParallel 数据并行初步
[pytorch 强化学习] 13 基于 pytorch 神经网络实现 policy gradient(REINFORCE)求解 CartPole
[pytorch 强化学习] 10 从 Q Learning 到 DQN(experience replay 与 huber loss / smooth L1)
[pytorch 强化学习] 05 迷宫环境(maze environment)策略梯度(Policy Gradient)求解
油管上的男男求婚现场|甜蜜夫夫求婚现场|YouTube短视频
[LLMs 实践] 03 LoRA fine-tune 大语言模型(peft、bloom 7b)
[LLMs 实践] 04 PEFT/LoRA 源码分析
[pytorch] [求导练习] 03 计算图(computation graph)及链式法则(chain rule)反向传播过程
【统计学】p-value(p值) 与 z-score(标准分/z得分/z分数)定义,计算以及适用场景
只…只可以一次哦
[diffusion] 生成模型基础 VAE 原理及实现
[pytorch distributed] 03 DDP 初步应用(Trainer,torchrun)
[LLMs 实践] 02 LoRA(Low Rank Adaption)基本原理与基本概念,fine-tune 大语言模型
[动手写神经网络] 如何对数据集归一化(transforms.Normalize)以 mnist 数据集为例(mean=0.1307, std=0.3081)
[pytorch distributed] 04 模型并行(model parallel)on ResNet50
[LLMs 实践] 17 llama2 源码分析(RMSNorm 与 SwiGLU)
[pytorch distributed] 02 DDP 基本概念(Ring AllReduce,node,world,rank,参数服务器)
太简单了!从入门到精通一口气学完CNN、RNN、GAN、GNN、Transformer、LSTM终于有人把八大深度学习神经网络知识点讲透彻了!草履虫都能看懂!
[工具的使用] python jupyter 环境安装配置拓展(nbextension)(ExcecuteTime:执行时间,Table of Content)
【数字图像处理】HoG+SVM+NMS行人检测(pedestrian detection)(python-opencv)
[pytorch 强化学习] 11 逐行写代码实现 DQN(ReplayMemory,Transition,DQN as Q function)
[动手写 bert 系列] bert model architecture 模型架构初探(embedding + encoder + pooler)
【数据处理】数据变换的三种形式,(几率)对数线性(log linear)、线性对数(linear log)、双对数log-log
[LLM 番外] 自回归语言模型cross entropy loss,及 PPL 评估
[pytorch 强化学习] 03 动手写迷宫环境(maze env)状态及动作策略初步(及动画保存)
[pytorch 强化学习] 02 将 env rendering 保存为 mp4/gif(以 CartPole 为例,mode='rgb_array')
[bert、t5、gpt] 10 知识蒸馏(knowledge distill)初步,模型结构及损失函数设计
[动手写Bert系列] bertencoder self attention 计算细节及计算过程
【计算机视觉】cnn/maxpool 输入输出 shape 的变化与kernel size、pool size、stride size,padding=same
[pytorch 网络拓扑结构] 深入理解 nn.LayerNorm 的计算过程
【手推公式】xgboost自定义损失函数(cross entropy/squared log loss)及其一阶导数gradient二阶导数hessian
[[bert、t5、gpt] 02 transformer 架构 scaled dot product self attention(qkv)
[pytorch 网络模型结构] 深入理解 nn.BatchNorm1d/2d 计算过程
[pytorch 网络模型结构] batchnorm train 及 eval 模式的差异及(running_mean, running_var)的计算细节
[全栈深度学习] 01 docker 工具的基本使用及 nvidia cuda pytorch 镜像
[pytorch 强化学习] 12 逐行写代码实现 DQN 完全体
[LLMs 实践] 13 gradient checkpointing 显存优化 trick
[LLMs 实践] 19 llama2 源码分析 RoPE apply_rotary_emb 从绝对位置编码到相对位置编码
【回归分析】R2(coefficient of determination)的定义及计算(SSres、SStot)及图形化解释(graphical expla)