V
主页
[python 运筹优化] 系统性介绍 scipy 中的非线性最小二乘(NNLS, curve_fit, least_squares)
发布人
本期 code:https://github.com/chunhuizhang/ortools_tutorials/blob/main/tutorials/scipy.optimize/least_square_curve_fit.ipynb
打开封面
下载高清视频
观看高清视频
视频下载器
【python 运筹优化】scipy.optimize.minimize 使用
【python 运筹优化】scipy.optimize.minimize 接口介绍(method、jacobian、hessian)| 有约束非线性优化
【Python 运筹实战】指派问题assignment problem| 匈牙利算法(Hungarian algorithm)| scipy.optimize
[优化算法] 梯度下降、共轭梯度、牛顿法、逆牛顿法(BFGS)
【python 运筹】混合整数规划 | MIP | ortools | SCIP | CBC
【运筹优化】CSP(约束满足最优化)| CP-SAT | domain reduction | constraint propagation
【运筹】【整数规划】outer approximation 求解 MINLP及示例
【统计】从P值到6σ(六西格玛)质量控制(P值与Z值,与置信水平的关系,python scipy 计算)
[python 全栈] 正则表达式初步与指南
【Python 运筹实战】Python实战 |指派问题assignment problem| 匈牙利算法(Hungarian algorithm)
【python 运筹】约束满足规划问题 | CP-SAT solver | ortools | 自定义打印所有可行解的回调函数
【python 运筹】constraint satisfaction problems | 约束满足问题 | ortools.sat | cp_model
【运筹】0/1二值逻辑整数规划约束的描述与表达,conditional/multiple choices以及互斥约束建模
【回归分析】最小二乘法的 python 实现以及 excel 回归分析及其可视化
【运筹优化】CP-SAT | CP-model | 求解 CryptArithmetic
【统计学】从置信水平(confidence level,置信区间)、Z值到最小采样数(最小抽样数)
[LLMs 实践] 21 llama2 源码分析 GQA:Grouped Query Attention
【python 信号与系统】02 scipy.signal.convolve2d 二维(图像)卷积及其与 CNN 的区别
【数字图像处理】前景背景分割GrabCut实现(python-opencv)类似PhotoShop抠图的功能
【数字图像处理】HoG+SVM+NMS行人检测(pedestrian detection)(python-opencv)
[python 多进程、多线程] 03 GIL、threading、多进程,concurrent.futures
【运筹优化】CP-SAT | cpmodel | CSP | boolean logic | channeling | 分段函数
[pytorch optim] 优化器相关 - learning rate scheduler
[矩阵分析] 分块矩阵的角度理解矩阵运算(独热向量与对角矩阵)
[AI 核心概念及计算] 优化 01 梯度下降(gradient descent)与梯度上升(gradient ascent)细节及可视化分析
【ortools】【cpmodel】八皇后问题的约束规划求解(leetcode 51/52 n-queens)
[Python 机器学习] 深入理解 numpy(ndarray)的 axis(轴/维度)
[动手写神经网络] 手动实现 Transformer Encoder
【统计】从最小采样数到采样误差(从置信水平(confidence level,置信区间)、Z值到最小采样数(最小抽样数))
【手推公式】可导损失函数(loss function)的梯度下降(GD)、随机梯度下降(SGD)以及mini-batch gd梯度优化策略
【python 数学编程】SymPy 数学家的朋友 | hessian | Jacobian
[全栈算法工程师系列] python deepcopy(深拷贝,clone,克隆)性能优化(浅拷贝+递归)
[LLMs tuning] 04 optimizer Trainer 优化细节(AdamW,grad clip、Grad Norm)等
[动手写 Transformer] 手动实现 Transformer Decoder(交叉注意力,encoder-decoder cross attentio)
【回归】多元线性回归分析(最小二乘法,矩阵矢量形式,解析解)
[损失函数设计] 为什么多分类问题损失函数用交叉熵损失,而不是 MSE
[LLMs 实践] 11 gradient accumulation 显存优化 trick
[LLMs inference] quantization 量化整体介绍(bitsandbytes、GPTQ、GGUF、AWQ)
[LLMs 实践] 13 gradient checkpointing 显存优化 trick
[数学!数学] 最大似然估计(MLE)与最小化交叉熵损失(cross entropy loss)的等价性