V
主页
京东 11.11 红包
【白板编程】map-reduce wordcount 的实现(reduceByKey vs. groupByKey)
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
【白板编程】map-reduce 倒排索引(inverted index)
[pytorch distributed] nccl 集合通信(collective communication)
【白板编程】【map-reduce】join 在 reduce 侧的实现
[蒙特卡洛方法] 03 接受/拒绝采样(accept/reject samping)初步 cases 分析
[pytorch 强化学习] 02 将 env rendering 保存为 mp4/gif(以 CartPole 为例,mode='rgb_array')
[pytorch 模型拓扑结构] pytorch 矩阵乘法大全(torch.dot, mm, bmm, @, *, matmul)
[pytorch 网络拓扑结构] 深入理解 nn.LayerNorm 的计算过程
[pytorch 强化学习] 11 逐行写代码实现 DQN(ReplayMemory,Transition,DQN as Q function)
[python 多进程、多线程以及协程] 01 关于进程(multiprocessing,pid、ppid)
[pytorch 网络拓扑结构] 深度理解 nn.BatchNorm1d
[pytorch 模型拓扑结构] 深入理解 nn.BCELoss 计算过程及 backward 及其与 CrossEntropyLoss 的区别与联系
[pytorch 强化学习] 10 从 Q Learning 到 DQN(experience replay 与 huber loss / smooth L1)
[pytorch 强化学习] 08 CartPole Q learning 连续状态离散化(digitize 分桶)及 display_frame_as_gif
[强化学习基础 02] MDP价值迭代算法(value iteration,V(s), Q(s,a), pi(s))
[pytorch 强化学习] 06 迷宫环境(maze environment)SARSA(Q-table,value iteration)求解
[手推公式] sigmoid 及其导数 softmax 及其导数性质(从 logits 到 probabilities)
[蒙特卡洛方法] 04 重要性采样补充,数学性质及 On-policy vs. Off-policy
[动手写bert系列] 01 huggingface tokenizer (vocab,encode,decode)原理及细节
【统计学】p-value(p值) 与 z-score(标准分/z得分/z分数)定义,计算以及适用场景
[linux tools] tmux 分屏(终端复用器)
【手推公式】logistic regression 及其与 linear regression 的区别,对数线性与对数几率
[AI 核心概念及计算] 概率计算 01 pytorch 最大似然估计(MLE)伯努利分布的参数
[Python 机器学习] 深入理解 numpy(ndarray)的 axis(轴/维度)
[概率 & 统计] kl div kl散度的计算及应用(pytorch)
【手推公式】指数族分布(exponential family distribution),伯努利分布及高斯分布的推导
[diffusion] 生成模型基础 VAE 原理及实现
[pytorch distributed] 03 DDP 初步应用(Trainer,torchrun)
【数字图像处理】HoG+SVM+NMS行人检测(pedestrian detection)(python-opencv)
[pytorch] Tensor 轴(axis)交换,transpose(转置)、swapaxes、permute
[动手写神经网络] 如何对数据集归一化(transforms.Normalize)以 mnist 数据集为例(mean=0.1307, std=0.3081)
[pytorch] torch.nn.Bilinear 计算过程与 einsum(爱因斯坦求和约定)
[LLMs 实践] 221 llama2 源码分析 generate 的完整过程
[LLMs 实践] 17 llama2 源码分析(RMSNorm 与 SwiGLU)
[LLMs 实践] 09 BPE gpt2 tokenizer 与 train tokenizer
[bert、t5、gpt] 09 T5 整体介绍(t5-11b,T5ForConditionalGeneration)
[动手写神经网络] 手动实现 Transformer Encoder
[动手写 bert 系列] 02 tokenizer encode_plus, token_type_ids(mlm,nsp)
[LLMs 实践] 13 gradient checkpointing 显存优化 trick
[python 全栈] python 装饰器(decorator)及 functools.cache
【计算机视觉】从图像距离(图像相似性)的计算(ahash/dhash/phash/whash)到以图搜索的实现(deep ranking)(一)