V
主页
【期望最大化算法(EM)背后的深层框架(2) Majorize-Minimization (MM) framework】——杨宇红
发布人
【期望最大化算法(EM)背后的深层框架(2) Majorize-Minimization (MM) framework】——杨宇红 清华大学丘成桐数学科学中心教授。1996年从耶鲁大学获得统计学博士学位,2010年成为IMS的Fellow ,是ASA、IMS、ISI的会员,2001年荣获NSF的 CAREER 奖。他曾担任Journal of Statistical Planning and Inference、 Annals、Statistica Sinica的副编辑,现为Statistics Surveys、 Annals of Institute of Statistical Mathematics的副编辑。已公开发表论文70余篇(其中在统计学、计量经济学的国际顶级期刊Annals、JRSSB、JASA、Biometrika、JOE上发表论文近20篇)。其研究兴趣是:模型选择与模型组合,高维数据分析,组合预测,个性化医学统计,带有协变量的Multi-Armed Bandit(MAB)问题等。 @徐芝兰 @BuddyBG @AI深度学渣 @R与统计
打开封面
下载高清视频
观看高清视频
视频下载器
CMU《凸优化|CMU 10 725 Convex Optimization fall 2022, by Yuanzhi Li(仅找到17课)》中英字幕(豆包
【期望最大化算法(EM)背后的深层框架(1) Majorize-Minimization (MM) framework】——杨宇红
【贪婪算法与压缩感知理论】—张颢(清华大学)
【精校】AI提示词工程深入探讨| Anthropic官方圆桌 2024.9【中英字幕】
【关于高斯分布的一切:理论和应用】——张颢(清华大学)
【统计最高奖得主访谈: 大数据时代的贝叶斯方法】——戴维·丹森 David Dunson(杜克大学)
统计 | 曾是谷歌高级研究科学家,将于2024年1月加入华盛顿大学计算机系任助理教授【麻省理工MIT博士答辩】——Natasha Jaques
【贝叶斯优化 Bayesian Optimization】
【自动驾驶技术】花18000大价钱买的无人驾驶课程,从入门到提升的自动驾驶算法——感知实战、视觉定位、预测系统、路径规划、控制理论、强化学习
【黑盒(blackbox),白盒(whitebox)和贝叶斯网络】——张颢(清华大学)
【针对小型、不平衡和异方差数据集的深度学习】——马腾宇(斯坦福大学)
【序贯采样、粒子滤波与隐马尔可夫模型】——张颢(清华大学)
图像分割领域怎么学才能快速出成果?迪哥梳理图像分割最佳学习路线,UNet/Deeplab/Mask2former/SAM图像分割算法全详解!
美国三院院士/机器学习超级大佬【贝叶斯学派还是频率学派,只能选一边吗?Bayesian or Frequentist, Which Are You? 】
想了解顶级统计学家都在做什么,各大统计方向的板块关系吗? 这个视频为你揭晓.【统计学三角The statistics triangle】——CMU教授金家顺
几乎支持目前所有主流框架的自动“炼丹炉”!可以说至目前最好的自动调参工具!
统计最高奖得主【贝叶斯因果推理出了什么问题?Problems With Bayesian Causal Inference】—Larry Wasserman
美国科学院院士、IMS前主席【因果推断Causal Inference】——郁彬(加州大学伯克利分校统计系主任)
【一次带你学会100+统计学概念】
麻省理工大学【通过基于置换的算法进行因果推断Causal inference through permutation-based algorithms】
【哈佛大学教授教你高级贝叶斯思维】——Joseph K. Blitzstein 约瑟夫·K·布利茨斯坦(哈佛大学应用统计专业教授)
加州大学计算遗传学教授,美国科学院院士【Majorization-Minimization Algorithm】——Kenneth L Lange
【一阶二阶优化与次梯度】——张颢(清华大学)
【支持向量机和核方法 SVM and Kernel】——张颢(清华大学)
哈佛大学【高斯混合模型的最大期望算法(4) EM for the Gaussian mixture model 】——Jeff Miller
秋招迫在眉睫!如何快速上手企业级CV项目?跟着这套教程三小时掌握SLAM算法及其应用,简直不要太好懂!
【递归最小二乘和奇异值分解 Recursive Least Square and SVD】——张颢(清华大学)
看完就能跑通!19个小时教你搭建NLP聊天机器人,基于Pytorch实现,技能点拉满!
哈佛大学【高斯混合模型的最大期望算法(2) EM for the Gaussian mixture model 】——Jeff Miller
【概率图模型的一切】—常虹(中国科学院大学)
【统计最坏情况分析理论(Minimax Theory)】——Larry Wasserman 拉里·A·沃瑟曼(卡内基梅隆大学)
【低秩矩阵 Low-Rank Matrices】——吉尔伯特-斯特朗 (Gilbert Strang)
【高维贝叶斯推断和计算(NeurIPS 2018教程)】——戴维·丹森 David Dunson(杜克大学)
这几个传统机器学习算法完全没必要学了!迪哥带你快速入门树模型系列内容,也是唯一值得去学的算法!
(国外超火博主)变分推断 | 证据下界 | 直觉和可视化
哥伦比亚大学【比双重差分法更好 Better than difference-in-differences】——Andrew Gelman
【假设检验的几何分析 Geometric analysis of hypothesis testing】——魏玉婷(宾夕法尼亚大学)
【不平衡数据综述】——辛西娅·鲁丁 Cynthia Rudin(杜克大学)
【RNN、LSTM、Attention、Transformer、预训练、生成模型、强化学习一次学完】——常虹(中国科学院大学)
【高斯差分隐私和中心极限定理 Gaussian Differential Privacy and Central Limit Theorems】 ——苏炜杰