V
主页
【约束满足问题】AIMA | Chap 6 | CSP | AC-3 | Arc Consistency
发布人
https://en.wikipedia.org/wiki/AC-3_algorithm https://www.bilibili.com/video/BV1AF411a7ir?spm_id_from=333.999.0.0
打开封面
下载高清视频
观看高清视频
视频下载器
手搓电子计算机好玩吗,有人感兴趣吗
【运筹优化】CSP(约束满足最优化)| CP-SAT | domain reduction | constraint propagation
[DRL] 从 TRPO 到 PPO(PPO-penalty,PPO-clip)
【毕导】这是科学史上最难理解的悖论
[Python 机器学习] 深入理解 numpy(ndarray)的 axis(轴/维度)
[pytorch 强化学习] 11 逐行写代码实现 DQN(ReplayMemory,Transition,DQN as Q function)
[动手写神经网络] 可微才可学,深度学习框架自动微分计算图(DAG)
[QKV attention] flash attention(Tiling与重计算),operation fused,HBM vs. SRAM
关于数仓工作的一些思考
[pytorch] [求导练习] 03 计算图(computation graph)及链式法则(chain rule)反向传播过程
【统计学】p-value(p值) 与 z-score(标准分/z得分/z分数)定义,计算以及适用场景
[24秋前沿]人工智能前沿-多模态
[动手写神经网络] 手动实现 Transformer Encoder
[personal chatgpt] gpt-4o tokenizer 及特殊中文tokens(压缩词表),o200k_base
[调包侠] 04 使用预训练模型进行图像特征向量提取(image feature extractor,img2vec)并进行相似性计算
[工具的使用] python jupyter 环境安装配置拓展(nbextension)(ExcecuteTime:执行时间,Table of Content)
[pytorch] [求导练习] 04 前向计算与反向传播与梯度更新(forward,loss.backward(), optimizer.step)
【计算机视觉】基于 Siamese network 的图像相似性计算(keras 预训练网络及微调,多输入单输出)
[蒙特卡洛方法] 02 重要性采样(importance sampling)及 python 实现
[矩阵分析] LoRA 矩阵分析基础之 SVD low rank approximation(低秩逼近)
【运筹】0/1二值逻辑整数规划约束的描述与表达,conditional/multiple choices以及互斥约束建模
[pytorch distributed] 从 DDP、模型并行、流水线并行到 FSDP(NCCL,deepspeed 与 Accelerate)
[LLMs 实践] 20 llama2 源码分析 cache KV(keys、values cache)加速推理
[generative models] 概率建模视角下的现代生成模型(生成式 vs. 判别式,采样与密度估计)
[数值计算] 快速计算、秒算大数乘除运算,对数变换将乘除变为加减,再通过查表(logarithm table)获得10-99之间的对数值
[LLMs 实践] 221 llama2 源码分析 generate 的完整过程
【python 运筹】constraint satisfaction problems | 约束满足问题 | ortools.sat | cp_model
【官方双语】如何实现ChatGPT同款的Transformer编程?一步一步带你用PyTorch实现!
[LLM+RL] 合成数据与model collapse,nature 正刊封面
[AI 核心概念及计算] 概率计算 01 pytorch 最大似然估计(MLE)伯努利分布的参数
[pytorch distributed] 01 nn.DataParallel 数据并行初步
[动手写神经网络] 02 逐行写代码 CNN pipeline 图像分类(模型结构、训练、评估)
【python 运筹优化】scipy.optimize.minimize 使用
CACC-CSP得分策略
长期看小电影会让大脑萎缩?
[概率 & 统计] Thompson Sampling(随机贝叶斯后验采样)与多臂老虎机
[pytorch 强化学习] 10 从 Q Learning 到 DQN(experience replay 与 huber loss / smooth L1)
计算机科学之美-毕节 第一季 第一节
Isight中DOE分析的参数都是怎么计算的
[pytorch 模型拓扑结构] 深入理解 nn.BCELoss 计算过程及 backward 及其与 CrossEntropyLoss 的区别与联系