V
主页
【深度学习 搞笑教程】19 激活函数 sigmoid tanh ReLU LeakyReLU ELU Swish | 草履虫都能听懂 零基础入门 | 持续更新
发布人
1 网络结构 2 sigmoid 3 tanh 4 ReLU 5 LeakyReLU 6 ELU 7 Swish
打开封面
下载高清视频
观看高清视频
视频下载器
一分钟带你认识常见激活函数(tanh、ReLU)
5.激活函数:给机器注入灵魂
sigmoid 求导 derivative 对数几率回归
3.4 激活函数
[pytorch] 激活函数(梯度消失)sigmoid,clamp,relu(sparse representation,dying relu)
04.激活函数sigmoid
逻辑回归(1) Sigmoid函数是怎么来的?
1.2.2-sigmoid函数
2021 深度学习卷积神经网络(4)—激活层和池化层
可视化理解 sigmoid 和 softmax 函数的导数
不用数学公式看懂卷积神经网络(2)relu和池化
神经网络 - 激活函数的来源与基本作用
太完整了!深度学习【神经网络基础】超详细教学,四大激活函数、梯度下降算法、正向传播和链式法则、反向传播算法、BP神经网络案例一次学得明明白白!!!
一分钟带你认识常见的激活函数(sigmoid)
Relu函数:深度神经网络中常用的激活函数——为什么是非线性激活函数?
3.深度学习灵魂-神经网络之激活函数
【深度学习 搞笑教程】20 全连接神经网络的不足 | 草履虫都能听懂 零基础入门 | 持续更新
【直观理解!】什么是梯度?博士带你快速啃透神经网络核心概念“梯度”!一个视频讲明白!-人工智能/损失函数/偏微分/激活函数/感知机
【数之道 06】神经网络模型中激活函数的选择
TANH函数,快速计算双曲正切值, Office Excel电子表格 #office办公技巧 #Excel #excel技巧
什么是softmax回归,如何使用softmax回归,解决多分类任务
[5分钟深度学习] #03 激活函数
为什么神经网络要用非线性激活函数
【深度学习概述】什么是激活函数
【深度学习 搞笑教程】15 logistic回归 | 草履虫都能听懂 零基础入门 | 持续更新
[pytorch] 激活函数,从 ReLU、LeakyRELU 到 GELU 及其梯度(gradient)(BertLayer,FFN,GELU)
所有的卷积神经网络动画都是错的!除了这个动画
深度学习面试,ReLU激活函数有什么样的特点和优势
上帝为什么选择了sigmoid
为什么深度学习中tanh比sigmoid用得更广泛
深度学习不是用来找工作的
[5分钟深度学习] #04 参数初始化
为什么神经网络,必须使用非线性的激活函数
可视化网络拟合过程,讲解损失函数、归一化、激活函数,泰勒网络、傅里叶网络等
超强动画,一步一步深入浅出解释Transformer原理!
什么是神经网络?看一个动画,就全明白了
什么是激活函数&该选哪种激活函数?
tanh函数极其导数
【数之道 32】6分钟理解机器学习核心知识之<损失函数>
欠拟合、过拟合、梯度消失与梯度爆炸