V
主页
“拉格朗日对偶问题”如何直观理解?“KKT条件” “Slater条件” “凸优化”打包理解
发布人
拉格朗日乘数法 拉格朗日对偶问题 凸集 凸函数、凹函数 凸优化 弱对偶、强对偶 KKT条件 Slater条件 最大熵
打开封面
下载高清视频
观看高清视频
视频下载器
最优化基础---基本概念:凸优化、梯度、Jacobi矩阵、Hessian矩阵
如何理解“梯度下降法”?什么是“反向传播”?通过一个视频,一步一步全部搞明白
“交叉熵”如何做损失函数?打包理解“信息量”、“比特”、“熵”、“KL散度”、“交叉熵”
“随机梯度下降、牛顿法、动量法、Nesterov、AdaGrad、RMSprop、Adam”,打包理解对梯度下降法的优化
从头开始,把概率论、统计、信息论中零散的知识统一起来
从编解码和词嵌入开始,一步一步理解Transformer,注意力机制(Attention)的本质是卷积神经网络(CNN)
拉格朗日乘数法的计算问题
曾经满屏的“拉格朗日秒了”,今天终于能看看他是怎么秒的了!
卷积究竟卷了啥?——17分钟了解什么是卷积
【数之道25】机器学习必经之路-SVM支持向量机的数学精华
“L1和L2正则化”直观理解(之一),从拉格朗日乘数法角度进行理解
用拉格朗日乘数法求条件最值,何时考虑端点?【Kira带你直击考研数学真题】
比啃书好太多!【最优化理论完整版教程】不愧是中科大教授!3小时让我清楚了凸优化,简直不要太爽!人工智能|AI|数学基础|最优化算法|机器学习|深度学习|nlp
清华博士带你一起了解【凸优化】,能满足你对凸优化所有的想象,这课程简直太棒了!!!-人工智能/机器学习/凸优化
什么是 L1 L2 正规化 正则化 Regularization (深度学习 deep learning)
【梯度下降】3D可视化讲解通俗易懂
【数之道】支持向量机SVM是什么,八分钟直觉理解其本质
最优化(2)使用KKT条件求解最优化问题示例
softmax是为了解决归一问题凑出来的吗?和最大熵是什么关系?最大熵对机器学习为什么非常重要?
用最直观的方式告诉你:什么是主成分分析PCA
4. 用“λ演算法”去理解,为什么函数式编程会有更少的bug
“损失函数”是如何设计出来的?直观理解“最小二乘法”和“极大似然估计法”
凸优化:什么是凸集?为什么凸优化重要?
周志华老师亲讲-西瓜书全网最详尽讲解-1080p高清原版《机器学习初步》
KKT条件-最优化方法(期末复习自用)-期末复习加油
方向导数和梯度的直观理解,为什么梯度方向函数变化最快?
10分钟讲完拉格朗日乘数法的七大技巧!再也不用担心解不出来!
从“卷积”、到“图像卷积操作”、再到“卷积神经网络”,“卷积”意义的3次改变
一口气学完微积分、概率论、泰勒公式、拉格朗日、贝叶斯分析、核函数等人工智能数学基础内容,真的是太全了!
直观解释:为什么噪声不是过拟合的原因?又什么只要没有过拟合就一定有噪声?
动画带你理解偏导数和梯度 Gradients and Partial Derivatives(Physics Videos)熟肉
凸优化:对偶理论 (svm支持向量机推导铺垫)
布布的高数教室:多元函数的条件极值、拉格朗日乘数法
理解【拉格朗日乘数法】:有等号约束的最优化
KKT条件就是这么简单
“神经网络”是什么?如何直观理解它的能力极限?它是如何无限逼近真理的?
最优化原理-拉格朗日乘子法
【机器学习】【白板推导系列】【合集 1~33】
【比刷剧还要爽!】2022B站最为通俗易懂的最优化理论【斯坦福】公开课,听听高校的公开课!纯干货!超详细!入门到实战!人工智能|AI|神经网络
最优化理论与方法-第八讲-约束优化(一):KKT条件