V
主页
统计最高奖得主/高维统计大佬【高维统计入门2 High-Dimensional Statistics】—加州伯克利大学教授Martin Wainwright
发布人
统计最高奖得主、高维统计大佬【高维统计入门2 High-Dimensional Statistics】——加州伯克利大学教授Martin Wainwright (High-Dimensional Statistics A Non-Asymptotic Viewpoint 作者) @徐芝兰
打开封面
下载高清视频
观看高清视频
视频下载器
美国三院院士/机器学习超级大佬【共形预测Conformal Prediction】—加州大学伯克利分校教授Michael I. Jordan
想了解顶级统计学家都在做什么,各大统计方向的板块关系吗? 这个视频为你揭晓.【统计学三角The statistics triangle】——CMU教授金家顺
统计最高奖得主【高维回归的推断 Inference for High-Dimensional Regression】—Larry Wasserman
【针对高维逻辑回归的现代最大似然估计理论】—哈佛大学助理教授 Pragya Sur
统计 | 曾是谷歌高级研究科学家,将于2024年1月加入华盛顿大学计算机系任助理教授【麻省理工MIT博士答辩】——Natasha Jaques
统计最高奖得主【非参数方法的缺陷Pitfall of Nonparametric Methods 】—Larry Wasserman
【贝叶斯估计Bayes Estimation】——亚利桑那大学教授Joseph C. Watkins
美国三院院士/机器学习超级大佬【贝叶斯学派还是频率学派,只能选一边吗?Bayesian or Frequentist, Which Are You? 】
高维统计大佬【隐私和统计:孰轻孰重Privacy and statistical minimax:quantitative tradeoffs】
芝加哥大学教授【贝叶斯生成式人工智能 Generative AI for Bayes】——维罗妮卡·罗科娃 Veronika Rockova
麻省理工【针对因果效应和处理效应的双重机器学习Double Machine Learning for Causal and Treatment Effects】
美国三院院士/机器学习超级大佬【什么是统计?What is Statistics? 】 —加州大学伯克利分校教授Michael I. Jordan
贝叶斯超级大佬【针对复杂的大数据的大规模贝叶斯推断】—杜克大学杰出教授David Dunson
统计最高奖得主【稀疏估计中令人不愉快的性质Unpleasant Properties of Sparse Estimators(e.g. Lasso)】
国际数理统计学会前主席【高维因果推断High dimensional Causal Inference】—苏黎世联邦理工大学教授Peter Bühlman
【二维和三维中的随机游走本质上是不同的(马尔可夫链方法)】
【统计学中最奇怪的悖论——斯坦因悖论 The weirdest paradox in statistics - Stein's Paradox】
差分隐私发明者之一【差分隐私的定义The Definition of Differential Privacy 】—哈佛大学教授Cynthia Dwork
美国科学院院士、IMS前主席【因果推断Causal Inference】——郁彬(加州大学伯克利分校统计系主任)
【似然比检验(1) Likelihood Ratio Tests】——亚利桑那大学教授 Joseph C. Watkins
【贝叶斯渐进理论】
新加坡国立大学【贝叶斯近似计算(1) Approximate Bayesian Computation i.e. ABC】——大卫·诺特
加州大学计算遗传学教授,美国科学院院士【Majorization-Minimization Algorithm】——Kenneth L Lange
英属哥伦比亚大学UBC教授【你想知道的各种优化方法(2)】——Mark Schmidt(马克·施密特)
哈佛大学【在发展因果推断历程中的艰难Obstacles in the development of causal inference】—James Robins
提升成绩必看【期望最大化算法Expectation Maximization Algorithm】—亚利桑那大学教授Joseph C. Watkins
【在顶级研究团队是什么感受?听美女科学家讲在DeepMind工作和在Google Brain(谷歌大脑)工作的不同】
【统计推断】估计量的偏差Bias——亚利桑那大学教授Joseph C. Watkins
杜克大学【是否存在更简单的模型以及我们如何找到它们?KDD 2019 - 主题演讲】
统计最高奖"考普斯会长奖"得主【用于预测的回归模型Regression Models for Prediction】—Andrew Gelman
【华人统计学家一览和现况】
加州大学洛杉矶分校统计系教授【V 统计量和 U 统计量入门 Introduction to V and U Statistics】——李婧翌
美国三院院士/机器学习超级大佬【机器学习的隐患The pitfalls of Machine Learning】—Michael I. Jordan
正则化Regularization II(一次带你打通关Lasso, Elastic Net, Adaptive Lasso, SCAD, MCP)
统计【经验分布和经验过程简史】
哥伦比亚大学【比双重差分法更好 Better than difference-in-differences】——Andrew Gelman
【置信区间(2) Confidence Intervals】——亚利桑那大学教授 Joseph C. Watkins
【高斯过程 Gaussian Processes】
英伟达机器学习研究主管、加州理工学院计算机系教授【神经算子: 学习偏微分方程的新范式】——阿尼玛什雷 (Anima) 阿南德库玛
这就是AI永远替代不了人类的原因