V
主页
[pytorch 加速] CPU传输 & GPU计算的并行(pin_memory,non_blocking)
发布人
本期 code:https://github.com/chunhuizhang/llm_aigc/blob/main/tutorials/nn_basics/performance_optimization/pytorch_optimization.ipynb
打开封面
下载高清视频
观看高清视频
视频下载器
[AI 核心概念及计算] 概率计算 01 pytorch 最大似然估计(MLE)伯努利分布的参数
[pytorch 网络拓扑结构] 深入理解 nn.LayerNorm 的计算过程
[pytorch 模型拓扑结构] 深入理解 nn.CrossEntropyLoss 计算过程(nn.NLLLoss(nn.LogSoftmax))
[pytorch 模型拓扑结构] 深入理解 nn.BCELoss 计算过程及 backward 及其与 CrossEntropyLoss 的区别与联系
[pytorch] torch.nn.Bilinear 计算过程与 einsum(爱因斯坦求和约定)
[pytorch] [求导练习] 05 计算图(computation graph)构建细节之 inplace operation(data与detach)
[全栈算法] docker nvidia pytorch gpu 环境及容器操作,端口号映射
【python 运筹】约束满足规划问题 | CP-SAT solver | ortools | 自定义打印所有可行解的回调函数
[pytorch] Tensor 轴(axis)交换,transpose(转置)、swapaxes、permute
[pytorch distributed] deepspeed 基本概念、原理(os+g+p)
[PyTorch] Dropout 基本原理(前向计算与自动求导)
[pytorch 计算图] retain_graph 获取非叶子节点的 grad
[pytorch distributed] 从 DDP、模型并行、流水线并行到 FSDP(NCCL,deepspeed 与 Accelerate)
[pytorch 网络拓扑结构] 深度理解 nn.BatchNorm1d
[pytorch distributed] 05 张量并行(tensor parallel),分块矩阵的角度,作用在 FFN 以及 Attention 上
[pytorch 强化学习] 12 逐行写代码实现 DQN 完全体
[动手写神经网络] 手动实现 Transformer Encoder
[pytorch模型拓扑结构] nn.MultiheadAttention, init/forward, 及 query,key,value 的计算细节
[pytorch optim] 优化器相关 AdaGrad(adaptive gradient) 与 RMSprop,自适应梯度
[sbert 02] sbert 前向及损失函数pooling method计算细节
[pytorch] [求导练习] 04 前向计算与反向传播与梯度更新(forward,loss.backward(), optimizer.step)
[pytorch distributed] 03 DDP 初步应用(Trainer,torchrun)
[pytorch] Tensor shape 变化 view 与 reshape(contiguous 的理解)
[动手写神经网络] pytorch 高维张量 Tensor 维度操作与处理,einops
[动手写神经网络] 01 认识 pytorch 中的 dataset、dataloader(mnist、fashionmnist、cifar10)
【flask web 核心】03 前后端分离(传输 matplotlib 图像到前端),图像编码(base64)与数据传输(render_template)
[动手写Bert系列] bertencoder self attention 计算细节及计算过程
[pytorch 番外] Tensorboard 与计算图初步(算子与 ATen)
[LangChain] 05 LangChain、LangGraph 结构化输出(Structured output),gpt-4o-2024-08-06
[GPT 番外] tied/share tensors wte与lm_head(GPT2LMHeadModel)
[lora 番外] LoRA merge 与 SVD(矩阵奇异值分解)
[pytorch distributed] torch 分布式基础(process group),点对点通信,集合通信
【计算机视觉】从图像距离(图像相似性)的计算(ahash/dhash/phash/whash)到以图搜索的实现(deep ranking)(一)
[BERT 番外] Sin Position Encoding 的简洁实现(RoPE 基础)
[番外] float16 与 bf16 表示和计算细节
[LLMs 实践] 10 预训练语料,mapping & streaming(load_dataset)
[AI 核心概念及计算] 优化 01 梯度下降(gradient descent)与梯度上升(gradient ascent)细节及可视化分析
[数值计算] 一阶泰勒展开快速计算一个数的平方根
【搜索算法】【search】01 python-astar 图上搜索(graph search)f(n)=g(n)+h(n)
[LLMs tuning] 01 trl SFTTrainer 中的 formatting_func 与 DataCollatorForCompletion