V
主页
【无限宽度神经网络】
发布人
無限寬的神經網路演算法 - NNGP 及NTK介紹 0:00 From Gaussian Process to Neural Tangent Kernel 0:19 大綱 1:20 高斯過程 4:05 高斯過程回歸(GPR) 13:16 GPR範例 16:09 GPR with Kernel 17:22 隨機初始化深度學習網路=高斯過程(NNGP演算法) 18:16 單層神經網路 23:29 Arc-Cos Kernel 31:02 多層神經網路 34:10 Bayesian Inference with Gaussian Process and NNGP Numerical Algorithm 42:14 NNGP 實驗 47:35 Neural Tangent Kernel(NTK) 48:54 Dual Space and Bilinear Form 52:24 網路初始化時的NTK 1:08:43 訓練網路時的NTK 1:22:00 更多種類的NTK 1:26:38 Neural Tangent 套件:介紹如何用套件客製化NNGP及NTK網路 reference: https://github.com/google/neural-tang... https://github.com/brain-research/nngp A. Jacot et al. 2018, Neural Tangent Kernel: Convergence and Generalization in Neural Networks S. Arora et al. 2019, On Exact Computation with an Infinitely Wide Neural Net R. Navok et al. 2019, Neural Tangents: Fast and Easy Infinite Neural Networks in Python J. Lee et al. 2018, Deep Neural Networks as Gaussian Process Z. Li et al. 2019, Enhanced Convolutional Neural Tangent Kernels Liu et al. 2019, When Gaussian Process Meets Big Data: A Review of Scalable GPs A. Rahimi et al. 2007, Random Features for Large-Scale Kernel Machines Y. Cho et al. 2009, Kernel Methods for Deep Learning J. Lee et al. 2019, Wide Neural Networks of Any Depth Evolves as Linear Models Under Gradient Descent J. Hron et al. 2020, Infinite Attention: NNGP an d NTK for Deep Attention Networks A. G Matthews et al. 2018, Gaussian Process Behavior in Wide Deep Neural Networks T. Beckers 2020, An introduction to Gaussian Process Models U.H. Gerlach 2016, The Dual of a Vector Space: From the Concrete to the Abstract to the Concrete https://www.maths.tcd.ie/~pete/ma1212... https://www.cs.princeton.edu/courses/... https://rajatvd.github.io/NTK/
打开封面
下载高清视频
观看高清视频
视频下载器
还得看吴恩达!一口气讲透CNN、RNN、GAN、LSTM、YOLO、transformer等六大深度学习神经网路算法!真的不要太爽~(AI人工智能丨机器学习)
【课件+代码】李沐大神《动手学深度学习》2024最新视频教程,比啃书高效!比刷剧还爽!(人工智能丨深度学习丨神经网络)
【教材+源码】深度学习必看圣经!李沐大神《动手学习深度学习》最新版视频教程分享,比追剧还爽!(深度学习/神经网络/计算机视觉)
【实分析:测度论一览】—韩邦先
【解释还是预测?To Explain or To Predict?】——嘉丽特·舒缪利(Galit Shmueli)
【我是如何对科学家失去信任的】
【概率图模型的一切】—常虹(中国科学院大学)
【多层线性模型】
【高斯过程 Gaussian Processes】
【凸优化基础、线性规划和内点法】——张颢(清华大学)
想了解顶级统计学家都在做什么,各大统计方向的板块关系吗? 这个视频为你揭晓.【统计学三角The statistics triangle】——CMU教授金家顺
【理解非参数统计】
【RNN、LSTM、Attention、Transformer、预训练、生成模型、强化学习一次学完】——常虹(中国科学院大学)
【贝叶斯网络 Bayesian Network】
【机器学习工程师的一天】
【马尔可夫链蒙特卡罗方法(1) (Markov chain Monte Carlo,MCMC) 】——张颢(清华大学)
【解释统计功效 Explaining Power】
他是真的想教会我们MATLAB机器学习入门到进阶!MATLAB科学计算全套教程!深度学习、神经网络、灰色预测编程实现
【高维统计推断】
【贝叶斯渐进理论】
【马蹄形先验与深度学习】
【影响函数(Influence function)告诉你大语言模型的生成机制】
【浙大知识图谱完整版】不愧是浙大教授!5小时让我搞定了知识图谱!知识图谱/计算机视觉/神经网络
Candes和陶哲轩的大作 【稀疏恢复(Sparse Recovery)】——张颢(清华大学)
【变分贝叶斯及其他-大规模的贝叶斯推断(ICML 2018)】
【期望最大化算法(EM)背后的深层框架(2) Majorize-Minimization (MM) framework】——杨宇红
【统计的真相 你认可吗】——Larry Wasserman 拉里·A·沃瑟曼(卡内基梅隆大学)
【统计里的大海捞针法】—蔡天文 Tony Cai(宾夕法尼亚大学)
研一在读,代码完全不会,如何入门深度学习?
【三门问题 Monty Hall Problem】
【数学教授修投影屏幕(Math Professor Fixes Projector Screen)】
地表最强AI写代码工具——Cursor:人人都是P8程序员
【无穷的无穷多个尺度】
【随机过程期末救命课】—张颢(清华大学)
什么是卷积?草履虫都能看懂的卷积神经网络理论详解与项目实战,基于Pytorch实现!
【孟晓犁 | 范剑青 对谈统计学】——(哈佛大学 | 普林斯顿大学)
【统计决策理论:风险函数】
【一阶二阶优化与次梯度】——张颢(清华大学)
这才是本研博最该看的深度学习入门教程——第7课:神经网络的可解释性
麻省理工【针对因果效应和处理效应的双重机器学习Double Machine Learning for Causal and Treatment Effects】