V
主页
【官方双语】一个例子彻底理解ReLU激活函数
发布人
ReLU激活函数是深度学习和卷积神经网络中最受欢迎的激活函数之一。然而,这个函数本身看似简单,却隐藏着不简单的内涵。这个StatQuest通过一个例子,逐步向您演示使用ReLU激活函数,以便您能够准确地了解它的作用和工作原理。 这个StatQuest假设您已经对神经网络的主要思想有所了解。如果不熟悉,请查看之前视频:https://www.bilibili.com/video/BV18m411S79t/?spm_id_from=333.999.0.0&vd_source=2467b9eb914331d7f163eb52ed0d1c22 字幕校对、翻译、时间轴调整:@Yovgg 视频校对:@凡鸟不凡 原视频:Neural Networks Pt. 3: ReLU In Action!!! https://www.youtube.com/watch?v=68BZ5f7P94E&t=3s 如果这个视频对你有所帮助,不要忘了一键三连和关注,欢迎分享给小伙伴一起学习呀! 如果投币超20个或者参与充电可以领取粉丝勋章! ----------------------------------------------------------------------- 如果您想支持StatQuest,请考虑... 购买我的书,《StatQuest机器学习图解指南》: PDF版本 - https://statquest.gumroad.com/l/wvtmc 纸质版 - https://www.amazon.com/dp/B09ZCKR4H6 Kindle电子书版 - https://www.amazon.com/dp/B09ZG79HXC ----------------------------------------------------------------------- StatQuest 旨在用通俗易懂的方式讲解统计学、机器学习等,将主要方法论分解成易于理解的部分,以增强理解。 更多关于StatQuest: 官网:https://statquest.org/ YouTube:https://www.youtube.com/@statquest Patreon: https://www.patreon.com/statquest 音乐:https://joshuastarmer.bandcamp.com/album/the-middle-ages 周边商店:https://statquest.creator-spring.com/? StatQuest Store: https://statquest.org/statquest-store/
打开封面
下载高清视频
观看高清视频
视频下载器
1.2.5-ReLu函数简介
【深度学习 搞笑教程】19 激活函数 sigmoid tanh ReLU LeakyReLU ELU Swish | 草履虫都能听懂 零基础入门 | 持续更新
06.激活函数relu
可视化网络拟合过程,讲解损失函数、归一化、激活函数,泰勒网络、傅里叶网络等
【研1基本功 (真的很简单)Decoder Encoder】手写Decoder Layer 准备召唤Transformer
什么是ReLU激活函数?——AI词典17,通俗易懂,入门人工智能
66集付费!只花了3小时学懂了深度学习神经网络入门到实战,GNN、RNN、GAN一口气学明白!
一分钟带你认识常见激活函数(tanh、ReLU)
不用数学公式看懂卷积神经网络(2)relu和池化
神经网络入门+激活函数快速直观理解
深度学习论文解读:ReLU函数
[5分钟深度学习] #03 激活函数
3.4 激活函数
[双语字幕]吴恩达深度学习deeplearning.ai
李沐-除非你是专家否则不建议搞图神经网络
超强动画,一步一步深入浅出解释Transformer原理!
【官方双语】看到神经网络的公式就头疼?一个视频带你理解神经网络里的数学知识!
[pytorch] 激活函数,从 ReLU、LeakyRELU 到 GELU 及其梯度(gradient)(BertLayer,FFN,GELU)
60分钟Pytorch从入门到精通!对零基础小白超友好的Pytorch教程~和学姐一起组队共学吧~
5分钟-通俗易懂 - 神经网络 反向传播算法(手算)
【深度学习 搞笑教程】20 全连接神经网络的不足 | 草履虫都能听懂 零基础入门 | 持续更新
2021 深度学习卷积神经网络(4)—激活层和池化层
为什么神经网络,必须使用非线性的激活函数
不同神经网络都是做什么的?迪哥精讲五大神经网络(卷积、递归、生成、LSTM与Transformer)一次学懂算法原理与实战!
[5分钟深度学习] #04 参数初始化
【官方双语】一个视频理解交叉熵 Cross Entropy
搞深度学习神经网络到底怎么改代码的啊?
神经网络 - 激活函数的来源与基本作用
[pytorch] 激活函数(梯度消失)sigmoid,clamp,relu(sparse representation,dying relu)
【200集付费】一口气学完回归算法、聚类算法、决策树、随机森林、神经网络、贝叶斯算法、支持向量机、神经网络等十二大机器学习算法!通俗易懂
6.2ReLU函数详解
横空出世的Mamba—要取代Transformer的地位?
我居然3小时学懂了深度学习神经网络入门到实战,多亏了这个课程,看不懂你打我!!!GAN/RNN/CNN神经网络/人工智能/计算机视觉/深度学习/AI机器学习
14 数值稳定性 + 模型初始化和激活函数【动手学深度学习v2】
【论文细读】第1期:所有深层ReLU神经网络都可等价转化为3层网络
为什么Transformer会好于ResNet,从Lipschitz常量讲起【深度学习中的数学ep10】
07.激活函数leakyrelu
【研1基本功 (真的很简单)Encoder Embedding】手写编码模块、构建Encoder Layer
【官方双语】反向传播超简明教程,解析神经网络参数优化的核心技术
5大深度神经网络都是用来干什么的?CNN、RNN、GAN、GNN、Transformer 迪哥一次带你吃透原理与实战!