V
主页
深度学习中的泛化理论 (5)覆盖数和VC维
发布人
-
打开封面
下载高清视频
观看高清视频
视频下载器
神经网络:逼近的力量
深度学习中的泛化理论 (3)一致收敛
第6章:核方法 (2)再生核希尔伯特空间
第9章:多分类 (2)非结合型多分类算法
第6章:核方法 (1)核函数
第7章:Boosting (2)AdaBoost理论 第二部分
第12章:最大熵 (2)Fenchel对偶性
第6章:核方法 (3)核化支持向量机
机器学习之数学基础:测度集中!
深度学习中的泛化理论 (4)神经网络的Rademacher复杂度
第7章:Boosting (2)AdaBoost理论 第一部分
在线学习入门 (10.1)多臂赌博机(MAB)
在线学习入门 (10.2)UCB的遗憾界
深度学习中的泛化理论 (1)基础
第5章:支持向量机 (3)间隔理论
第4章:模型选择 (1)ERM和SRM
【完结】在线学习入门 (10.3)线性赌博机
第9章:多分类 (3)结合型多分类算法
第4章:模型选择 (2)交叉验证
在线学习入门 (9.1)在线梯度下降(OGD)
第12章:最大熵 (3)密度估计和最大熵模型
深度学习中的泛化理论 (6)压缩界和稳定性界
在线学习入门 (8.4)从FTRL到MWU
第8章:在线学习 (3)在线-批量转换
深度学习中的泛化理论 (2)感知机
机器学习之降维:流形学习
第7章:Boosting (1)AdaBoost算法
【纯手写】机器学习理论基础 第1章:引言
第9章:多分类 (1)多分类泛化界
在线学习入门 (9.2)OGD的遗憾界
机器学习之降维:主成分分析
机器学习之降维:Johnson-Lindenstrauss引理
第14章:稳定性
【机器学习理论基础】系列终极总结 (1)基本理论
第13章:条件最大熵 (1)多分类和条件最大熵模型
【机器学习理论基础】系列终极总结 (2)基本模型
第5章:支持向量机 (2)基本模型
在线学习入门 (5)在线-批量转换
第11章:回归 (2)线性回归和岭回归
第8章:在线学习 (1)遗憾界