V
主页
【手推公式】xgboost自定义损失函数(cross entropy/squared log loss)及其一阶导数gradient二阶导数hessian
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
【手推公式】从二分类到多分类,从sigmoid到softmax,从最大似然估计到 cross entropy
[数学!数学] 最大似然估计(MLE)与最小化交叉熵损失(cross entropy loss)的等价性
几乎优化任意损失函数,不使用一阶信息的新boosting算法,偏移量预言机是关键!
60分钟Pytorch从入门到精通【第七期】!这期是上手代码演示损失函数和优化器设置的过程!跟farfar一起动动手试试看!
yolov8 | 损失函数 之 1、数据预处理 代码精读
xgboost + shap可加性解释
[LLM 番外] 自回归语言模型cross entropy loss,及 PPL 评估
【机器学习】【手推公式】从Hinge loss(合页损失)到 SVM(hard margin/soft margin)
【手推公式】可导损失函数(loss function)的梯度下降(GD)、随机梯度下降(SGD)以及mini-batch gd梯度优化策略
【手推公式】从二分类(二项分布)到多分类(多项分布),最大似然估计与交叉熵损失的等价
【手推公式】logistic regression 为什么不采用 squared loss作为其损失函数,如何从最大似然估计得到交叉熵损失函数
[手推公式] sigmoid 及其导数 softmax 及其导数性质(从 logits 到 probabilities)
【数据变换】【可视化】xscale('log') , yscale('log'), log-log plot 非线性转换为线性
[pytorch optim] pytorch 作为一个通用优化问题求解器(目标函数、决策变量)
【数据处理】数据变换的三种形式,(几率)对数线性(log linear)、线性对数(linear log)、双对数log-log
YOLOv8改进分类损失函数:多种PolyLoss、VFocalLoss、QFocalLoss损失函数改进教程
【机器学习中的数学】【概率论】正态分布的导数与拐点(inflection points)
【手推公式】从 logodds 到 sigmoid 概率化输出,用于 LR、XGBoost 的分类任务
[pytorch] 激活函数,从 ReLU、LeakyRELU 到 GELU 及其梯度(gradient)(BertLayer,FFN,GELU)
【手推公式】【目标检测】【Fast RCNN】RoIPooling 的作用及计算
【手推公式】指数族分布(exponential family distribution),伯努利分布及高斯分布的推导
yolov8 | 1、环境配置
[pytorch] F.binary_cross_entropy(二分类) 与 F.cross_entropy(多分类)
【手推公式】multi-classification多分类评估(precision/recall,micro averaging与macro averaging
【手推公式】梯度下降(一阶泰勒展开)的一种直观形式
[pytorch distributed] 从 DDP、模型并行、流水线并行到 FSDP(NCCL,deepspeed 与 Accelerate)
【python 运筹优化】scipy.optimize.minimize 接口介绍(method、jacobian、hessian)| 有约束非线性优化
【手推公式】logistic regression 及其与 linear regression 的区别,对数线性与对数几率
[python nlp] 01 词频分析与 Zipf law 齐夫定律(log-log plot)
计算机博士结合深度学习花书打造!初学者入门必备的深度学习经典算法解析课,收藏起来慢慢学!
【手推公式】【销量预测】【回归分析】MAE与MSE在回归分析时的区别,为什么MSE倾向于回归均值,MAE倾向于回归中位数
[pytorch 强化学习] 10 从 Q Learning 到 DQN(experience replay 与 huber loss / smooth L1)
[AI 核心概念及计算] 优化 01 梯度下降(gradient descent)与梯度上升(gradient ascent)细节及可视化分析
[pytorch] [求导练习] 04 前向计算与反向传播与梯度更新(forward,loss.backward(), optimizer.step)
[LLMs 实践] 13 gradient checkpointing 显存优化 trick
[RLHF] 从 PPO rlhf 到 DPO,公式推导与原理分析
[LLMs 实践] 11 gradient accumulation 显存优化 trick
[pytorch 模型拓扑结构] 深入理解 nn.BCELoss 计算过程及 backward 及其与 CrossEntropyLoss 的区别与联系
[personal chatgpt] 从 RoPE 到 CoPE(绝对位置编码,相对位置编码,Contextual Position Encoding)
【机器学习】揭秘逻辑回归算法:Python 客户流失预测实战教程