V
主页
【线性代数不代数】
发布人
Y 【线性代数不代数】
打开封面
下载高清视频
观看高清视频
视频下载器
【凸优化基础、线性规划和内点法】——张颢(清华大学)
【贝叶斯渐进理论】
Candes和陶哲轩的大作 【稀疏恢复(Sparse Recovery)】——张颢(清华大学)
【华人统计学家一览和现况】
【贪婪算法与压缩感知理论】—张颢(清华大学)
统计最高奖得主【贝叶斯因果推理出了什么问题?Problems With Bayesian Causal Inference】—Larry Wasserman
【假设检验的几何分析 Geometric analysis of hypothesis testing】——魏玉婷(宾夕法尼亚大学)
B站最通俗易懂的【机器学习-数学基础】草履虫都能看懂!全套200+集,史诗级巨作,不漏掉任何一个知识点!
【高斯过程 Gaussian Processes】
【概率图模型的一切】—常虹(中国科学院大学)
【马尔可夫链蒙特卡罗方法(1) (Markov chain Monte Carlo,MCMC) 】——张颢(清华大学)
【关于高斯分布的一切:理论和应用】——张颢(清华大学)
【支持向量机和核方法 SVM and Kernel】——张颢(清华大学)
统计 | 曾是谷歌高级研究科学家,将于2024年1月加入华盛顿大学计算机系任助理教授【麻省理工MIT博士答辩】——Natasha Jaques
想了解顶级统计学家都在做什么,各大统计方向的板块关系吗? 这个视频为你揭晓.【统计学三角The statistics triangle】——CMU教授金家顺
【计量经济学:工具变量 (instrumental variables)】
目前B站最完整系统的【机器学习-数学基础从入门到进阶】全套课程分享,线性代数、概率论、微积分、决策树算法、机器学习数学基础
【自监督学习 Self-supervised learning】——马腾宇(斯坦福大学计算机科学与统计学的助理教授)
正则化Regularization I (一次带你打通关Lasso, Elastic Net, Adaptive Lasso, SCAD, MCP)
【后现代贝叶斯机器学习(Post-Bayesian Machine Learning)】
【还在用泰勒展开吗 试一试帕德近似吧】
【期望最大化算法(EM)背后的深层框架(1) Majorize-Minimization (MM) framework】——杨宇红
麻省理工【针对因果效应和处理效应的双重机器学习Double Machine Learning for Causal and Treatment Effects】
【高维统计作者带你捋顺主干理论 (1)】——马丁·温赖特 Martin Wainwright
【马尔可夫链蒙特卡罗方法(2) (Markov chain Monte Carlo,MCMC) 】——张颢(清华大学)
【马蹄形先验与深度学习】
加州大学计算遗传学教授,美国科学院院士【Majorization-Minimization Algorithm】——Kenneth L Lange
【序贯采样、粒子滤波与隐马尔可夫模型】——张颢(清华大学)
爱荷华州立大学【贝叶斯线性回归 Bayesian linear regression】——贾拉德·尼米(Jarad Niemi )
闲来无事,推翻一下数学大厦
【代数拓扑 Math525】
加州大学洛杉矶分校统计系教授【U 统计量的渐近分布 Asymptotic Distribution of U Statistic】——李婧翌
【深度高斯过程 (Deep Gaussian Processes)】
【康奈尔大学 离散数学 期末复习课】
【行列式的几何意义】
这可能是B站最全的【机器学习数学基础】系列课程了,微积分、概率论、线性代数、回归分析等,从入门到进阶我不信还有人学不明白!机器学习/人工智能/数学基础
线性代数 3.1-矩阵的初等变换(一)
谷歌大脑高级研究科学家【任何人可用的可解释性Interpretability For Everyone 】—Been Kim
【统计学中最奇怪的悖论——斯坦因悖论 The weirdest paradox in statistics - Stein's Paradox】
【哈佛大学教授教你高级贝叶斯思维】——Joseph K. Blitzstein 约瑟夫·K·布利茨斯坦(哈佛大学应用统计专业教授)