V
主页
京东 11.11 红包
【数学基础】高跟鞋该怎么选?黄金分割比与黄金分割矩形
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
【手推公式】logistic regression 及其与 linear regression 的区别,对数线性与对数几率
[强化学习基础 01] MDP 基础(概率转移,与POMDP、I-POMDP)
【推荐系统】【缺失值处理】【矩阵分析】基于低秩矩阵补全(low rank matrix completing,矩阵分解 matrix factorizatio)
[蒙特卡洛方法] 04 重要性采样补充,数学性质及 On-policy vs. Off-policy
【手推公式】指数族分布(exponential family distribution),伯努利分布及高斯分布的推导
[矩阵分析] 分块矩阵的角度理解矩阵运算(独热向量与对角矩阵)
【机器学习中的数学】【概率论】正态分布的导数与拐点(inflection points)
[统计] python 假设检验基础(T-Test,ANOVA,chi2)
【数据处理】数据变换的三种形式,(几率)对数线性(log linear)、线性对数(linear log)、双对数log-log
【基础数学】为什么0不能做分母
[pytorch 强化学习] 02 将 env rendering 保存为 mp4/gif(以 CartPole 为例,mode='rgb_array')
【矩阵分析】矩阵奇异值与谱范数(spectral norm),F范数(Frobenius norm),核范数(nuclear norm)
【机器学习中的数学】【无穷级数】1/n^p(p-series)收敛性的证明
[pytorch 网络拓扑结构] 深入理解 nn.LayerNorm 的计算过程
[蒙特卡洛方法] 02 重要性采样(importance sampling)及 python 实现
[矩阵分析] LoRA 矩阵分析基础之 SVD low rank approximation(低秩逼近)
[pytorch] 激活函数(梯度消失)sigmoid,clamp,relu(sparse representation,dying relu)
[pytorch 模型拓扑结构] pytorch 矩阵乘法大全(torch.dot, mm, bmm, @, *, matmul)
【销量预测】R2(r_squared)与相关系数(correlation)的区别和联系,什么情况下R2=correlation,R2与MAE,RMSE
[蒙特卡洛方法] 03 接受/拒绝采样(accept/reject samping)初步 cases 分析
【Python 运筹实战】指派问题assignment problem| 匈牙利算法(Hungarian algorithm)| scipy.optimize
【基础数学】从干支纪年法到最小公倍数的妙用
【excel数据分析】幂律分布拟合城市GDP(幂律分布 vs. 指数分布 vs. 线性拟合 vs. 多项式拟合)
[pytorch 模型拓扑结构] 深入理解 nn.BCELoss 计算过程及 backward 及其与 CrossEntropyLoss 的区别与联系
[pytorch] torch.nn.Bilinear 计算过程与 einsum(爱因斯坦求和约定)
[personal chatgpt] 从 RoPE 到 CoPE(绝对位置编码,相对位置编码,Contextual Position Encoding)
[强化学习基础 03] 多臂老虎机(Multi-Armed Bandit)与 UCB
【手推公式】【销量预测】【回归分析】MAE与MSE在回归分析时的区别,为什么MSE倾向于回归均值,MAE倾向于回归中位数
【统计】统计检验(从t-distribution(t分布)到t-test(t检验),t-score(t-统计量)以及卡方检验(chi-test),excel计算
【excel】计算白条花呗借呗分期付款的真实IRR(Internal Rate of Return)
[动手写神经网络] 可微才可学,深度学习框架自动微分计算图(DAG)
【矩阵计算】从 im2col 到 GEMM,矩阵与核的卷积到矩阵乘法
【计算机视觉】从图像距离(图像相似性)的计算(ahash/dhash/phash/whash)到以图搜索的实现(deep ranking)(一)
【手推公式】从二分类到多分类,从sigmoid到softmax,从最大似然估计到 cross entropy
[番外] float16 与 bf16 表示和计算细节
【数学大战】新符号:π
[蒙特卡洛方法] 01 从黎曼和式积分(Reimann Sum)到蒙特卡洛估计(monte carlo estimation)求积分求期望
【25张宇八套卷】数一 逐题讲解By吃尽天下面
【机器学习】【手推公式】从Hinge loss(合页损失)到 SVM(hard margin/soft margin)
[动手写神经网络] 如何对数据集归一化(transforms.Normalize)以 mnist 数据集为例(mean=0.1307, std=0.3081)