V
主页
【手推公式】logistic regression 为什么不采用 squared loss作为其损失函数,如何从最大似然估计得到交叉熵损失函数
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
[数学!数学] 最大似然估计(MLE)与最小化交叉熵损失(cross entropy loss)的等价性
【手推公式】从二分类(二项分布)到多分类(多项分布),最大似然估计与交叉熵损失的等价
【手推公式】从二分类到多分类,从sigmoid到softmax,从最大似然估计到 cross entropy
【手推公式】logistic regression 及其与 linear regression 的区别,对数线性与对数几率
【手推公式】可导损失函数(loss function)的梯度下降(GD)、随机梯度下降(SGD)以及mini-batch gd梯度优化策略
【机器学习】【手推公式】从Hinge loss(合页损失)到 SVM(hard margin/soft margin)
【手推公式】xgboost自定义损失函数(cross entropy/squared log loss)及其一阶导数gradient二阶导数hessian
[损失函数设计] 为什么多分类问题损失函数用交叉熵损失,而不是 MSE
【手推公式】【销量预测】【回归分析】MAE与MSE在回归分析时的区别,为什么MSE倾向于回归均值,MAE倾向于回归中位数
[pytorch] 深入理解 nn.KLDivLoss(kl 散度) 与 nn.CrossEntropyLoss(交叉熵)
[gpt2 番外] training vs. inference(generate),PPL 计算,交叉熵损失与 ignore_index
【手推公式】【目标检测】【Fast RCNN】RoIPooling 的作用及计算
【手推公式】指数族分布(exponential family distribution),伯努利分布及高斯分布的推导
【机器学习】线性回归(linear regression)逻辑回归(logistics regression)特征重要性与 odds ratio
[动手写 Transformer] 手动实现 Transformer Decoder(交叉注意力,encoder-decoder cross attentio)
[AI 核心概念及计算] 概率计算 01 pytorch 最大似然估计(MLE)伯努利分布的参数
[pytorch optim] pytorch 作为一个通用优化问题求解器(目标函数、决策变量)
【手推公式】从 logodds 到 sigmoid 概率化输出,用于 LR、XGBoost 的分类任务
【手推公式】odds(几率)与对数几率(logodds)在logistics regression及xgboost classification中的应用
[sbert 02] sbert 前向及损失函数pooling method计算细节
似然估计不会做?这个视频让你从头通透到脚趾!
[手推公式] sigmoid 及其导数 softmax 及其导数性质(从 logits 到 probabilities)
【销量预测】R2(r_squared)与相关系数(correlation)的区别和联系,什么情况下R2=correlation,R2与MAE,RMSE
【手推公式】梯度下降(一阶泰勒展开)的一种直观形式
[bert、t5、gpt] 10 知识蒸馏(knowledge distill)初步,模型结构及损失函数设计
[LLM 番外] 自回归语言模型cross entropy loss,及 PPL 评估
[pytorch] [求导练习] 04 前向计算与反向传播与梯度更新(forward,loss.backward(), optimizer.step)
[pytorch 强化学习] 10 从 Q Learning 到 DQN(experience replay 与 huber loss / smooth L1)
【手推公式】multi-classification多分类评估(precision/recall,micro averaging与macro averaging
[RLHF] 从 PPO rlhf 到 DPO,公式推导与原理分析
[personal chatgpt] instructGPT 中的 reward modeling,概率建模与损失函数性质
【深度学习环境搭建】01 本机、GPU服务器端深度学习环境搭建(代码、数据共享)
[pytorch 模型拓扑结构] 深入理解 nn.BCELoss 计算过程及 backward 及其与 CrossEntropyLoss 的区别与联系
[pytorch] 激活函数(梯度消失)sigmoid,clamp,relu(sparse representation,dying relu)
【python 运筹】约束满足规划问题 | CP-SAT solver | ortools | 自定义打印所有可行解的回调函数
[动手写神经网络] 01 认识 pytorch 中的 dataset、dataloader(mnist、fashionmnist、cifar10)
[凸函数] convex 性质与简森不等式(jensen's inequality)与 ELBO、投资组合理论(Porfolio)
【统计学】从置信水平(confidence level,置信区间)、Z值到最小采样数(最小抽样数)
[概率统计] 将对数几率(logodds)引入到贝叶斯公式(bayes),后验对数几率=先验对数几率+似然对数几率
[蒙特卡洛方法] 03 接受/拒绝采样(accept/reject samping)初步 cases 分析