V
主页
【手推公式】从二分类(二项分布)到多分类(多项分布),最大似然估计与交叉熵损失的等价
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
[AI 核心概念及计算] 概率计算 01 pytorch 最大似然估计(MLE)伯努利分布的参数
【手推公式】odds(几率)与对数几率(logodds)在logistics regression及xgboost classification中的应用
【手推公式】logistic regression 及其与 linear regression 的区别,对数线性与对数几率
【手推公式】xgboost自定义损失函数(cross entropy/squared log loss)及其一阶导数gradient二阶导数hessian
[数学!数学] 最大似然估计(MLE)与最小化交叉熵损失(cross entropy loss)的等价性
详解射频连接器-射频连接器分类&大功率射频连接器的功率容量计算
[数值计算] 快速计算、秒算大数乘除运算,对数变换将乘除变为加减,再通过查表(logarithm table)获得10-99之间的对数值
【手推公式】指数族分布(exponential family distribution),伯努利分布及高斯分布的推导
[bert、t5、gpt] 01 fine tune transformers 文本分类/情感分析
【手推公式】从二分类到多分类,从sigmoid到softmax,从最大似然估计到 cross entropy
[pytorch 网络拓扑结构] 深入理解 nn.LayerNorm 的计算过程
【excel数据分析】幂律分布拟合城市GDP(幂律分布 vs. 指数分布 vs. 线性拟合 vs. 多项式拟合)
【手推公式】梯度下降(一阶泰勒展开)的一种直观形式
[概率 & 统计] Thompson Sampling(随机贝叶斯后验采样)与多臂老虎机
[AI 核心概念及计算] 优化 01 梯度下降(gradient descent)与梯度上升(gradient ascent)细节及可视化分析
[RLHF] 从 PPO rlhf 到 DPO,公式推导与原理分析
[pytorch 模型拓扑结构] 深入理解 nn.CrossEntropyLoss 计算过程(nn.NLLLoss(nn.LogSoftmax))
[gpt2 番外] training vs. inference(generate),PPL 计算,交叉熵损失与 ignore_index
[动手写神经网络] 04 使用预训练 vgg 提升 cifar10 分类准确率
【机器学习】【手推公式】从Hinge loss(合页损失)到 SVM(hard margin/soft margin)
[pytorch] Tensor 轴(axis)交换,transpose(转置)、swapaxes、permute
[PyTorch] Dropout 基本原理(前向计算与自动求导)
[LLMs 实践] 13 gradient checkpointing 显存优化 trick
[动手写 Transformer] 手动实现 Transformer Decoder(交叉注意力,encoder-decoder cross attentio)
【手推公式】multi-classification多分类评估(precision/recall,micro averaging与macro averaging
[优化算法] 梯度下降、共轭梯度、牛顿法、逆牛顿法(BFGS)
[LLMs 实践] 19 llama2 源码分析 RoPE apply_rotary_emb 从绝对位置编码到相对位置编码
[损失函数设计] 为什么多分类问题损失函数用交叉熵损失,而不是 MSE
【python 运筹】constraint satisfaction problems | 约束满足问题 | ortools.sat | cp_model
[diffusion] 生成模型基础 VAE 原理及实现
【Python 金融】72法则 | 本金翻倍 | 每年复利 1 次 | 每年复利多次 | 连续复利 | 泰勒级数 | 麦克劳林公式
[统计] python 假设检验基础(T-Test,ANOVA,chi2)
[手推公式] sigmoid 及其导数 softmax 及其导数性质(从 logits 到 probabilities)
【手推公式】【销量预测】【回归分析】MAE与MSE在回归分析时的区别,为什么MSE倾向于回归均值,MAE倾向于回归中位数
【程序员说会计】breakeven | 盈亏平衡点 | 总营收(total revenue)| 总成本(total cost)| 边际贡献
[pytorch] 深入理解 nn.KLDivLoss(kl 散度) 与 nn.CrossEntropyLoss(交叉熵)
[stable diffusion] 01 本地安装及环境配置(diffusers, StableDiffusionPipeline, text2image)
[概率 & 统计] KL 散度(KL div)forward vs. reverse
[LLMs 实践] 09 BPE gpt2 tokenizer 与 train tokenizer
[LLMs tuning] 05 StackLlama、SFT+DPO(代码组织、数据处理,pipeline)