V
主页
京东 11.11 红包
【白板编程】map-reduce 倒排索引(inverted index)
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
【白板编程】【map-reduce】join 在 reduce 侧的实现
[pytorch] torch.einsum 到索引到矩阵运算(index、shape、dimension、axis)
【白板编程】map-reduce wordcount 的实现(reduceByKey vs. groupByKey)
[pytorch] nn.Embedding 前向查表索引过程与 one hot 关系及 max_norm 的作用
[gpt2 番外] training vs. inference(generate),PPL 计算,交叉熵损失与 ignore_index
[蒙特卡洛方法] 03 接受/拒绝采样(accept/reject samping)初步 cases 分析
[linux tools] tmux 分屏(终端复用器)
[矩阵分析] 旋转矩阵的计算机与应用(复平面,RoPE)
[pytorch] 激活函数(梯度消失)sigmoid,clamp,relu(sparse representation,dying relu)
[pytorch] 深入理解 torch.gather 及 dim 与 index 的关系
[pytorch 强化学习] 02 将 env rendering 保存为 mp4/gif(以 CartPole 为例,mode='rgb_array')
[pytorch 强化学习] 07 迷宫环境(maze environment)Q Learning(value iteration)求解(策略关闭 off)
[蒙特卡洛方法] 04 重要性采样补充,数学性质及 On-policy vs. Off-policy
[Python 机器学习] 深入理解 numpy(ndarray)的 axis(轴/维度)
[LLMs 实践] 09 BPE gpt2 tokenizer 与 train tokenizer
[DRL] 从 TRPO 到 PPO(PPO-penalty,PPO-clip)
[pytorch] Tensor shape 变化 view 与 reshape(contiguous 的理解)
[pytorch distributed] deepspeed 基本概念、原理(os+g+p)
[pytorch] torch.nn.Bilinear 计算过程与 einsum(爱因斯坦求和约定)
[pytorch] Tensor 轴(axis)交换,transpose(转置)、swapaxes、permute
[[bert、t5、gpt] 02 transformer 架构 scaled dot product self attention(qkv)
[优化算法] 梯度下降、共轭梯度、牛顿法、逆牛顿法(BFGS)
[bert、t5、gpt] 04 构建 TransformerEncoderLayer(FFN 与 Layer Norm、skip connection)
[手推公式] sigmoid 及其导数 softmax 及其导数性质(从 logits 到 probabilities)
【数字图像处理】视频关键帧检测(I-frame,P-frame),ffprobe,视频推荐,video embedding
[LLMs 实践] 18 llama2 源码分析 RoPE 相对位置编码的复数形式
[stable diffusion] 01 本地安装及环境配置(diffusers, StableDiffusionPipeline, text2image)
[统计] python 假设检验基础(T-Test,ANOVA,chi2)
【python 运筹优化】scipy.optimize.minimize 使用
[LLMs 实践] 14 llama2 introduction 及 fine tune llama2(guanaco dataset)
[pytorch 强化学习] 10 从 Q Learning 到 DQN(experience replay 与 huber loss / smooth L1)
[pytorch 网络拓扑结构] 深度理解 nn.BatchNorm1d
[动手写神经网络] 手动实现 Transformer Encoder
[LLMs 实践] 13 gradient checkpointing 显存优化 trick
[动手写bert系列] 01 huggingface tokenizer (vocab,encode,decode)原理及细节
[pytorch distributed] nccl 集合通信(collective communication)
[LLMs 实践] 21 llama2 源码分析 GQA:Grouped Query Attention
[AI Agent] llama_index RAG 原理及源码分析
[动手写神经网络] 01 认识 pytorch 中的 dataset、dataloader(mnist、fashionmnist、cifar10)
[bert、t5、gpt] 09 T5 整体介绍(t5-11b,T5ForConditionalGeneration)