V
主页
[pytorch] nn.Embedding 前向查表索引过程与 one hot 关系及 max_norm 的作用
发布人
本期 code:https://github.com/chunhuizhang/llm_aigc/blob/main/tutorials/nn_basics/04_embedding_details.ipynb
打开封面
下载高清视频
观看高清视频
视频下载器
15分钟手把手教你在RAG中如何选择合适的embedding模型!附解析代码!
[pytorch distributed] 01 nn.DataParallel 数据并行初步
[pytorch] BN、LN、RMSNorm 及 pre LN vs. post LN 对比,标准化
[pytorch 网络拓扑结构] 深入理解 nn.LayerNorm 的计算过程
[pytorch] torch.einsum 到索引到矩阵运算(index、shape、dimension、axis)
[LLM && AIGC] 05 OpenAI 长文本(long text,超出 max_tokens)处理及 summary,划分 chunk 处理
[pytorch 强化学习] 01 认识环境(environment,gym.Env)以及 CartPole-v0/v1 环境
[pytorch 网络模型结构] 深入理解 nn.BatchNorm1d/2d 计算过程
[动手写神经网络] 手动实现 Transformer Encoder
[pytorch] [求导练习] 04 前向计算与反向传播与梯度更新(forward,loss.backward(), optimizer.step)
[pytorch distributed] 张量并行与 megtron-lm 及 accelerate 配置
[pytorch 模型拓扑结构] 深入理解 nn.BCELoss 计算过程及 backward 及其与 CrossEntropyLoss 的区别与联系
[动手写神经网络] pytorch 高维张量 Tensor 维度操作与处理,einops
[pytorch 模型拓扑结构] 深入理解 nn.BatchNorm2d/3d
[矩阵分析] LoRA 矩阵分析基础之 SVD low rank approximation(低秩逼近)
[动手写 bert 系列] Bert 中的(add & norm)残差连接与残差模块(residual connections/residual blocks)
[LLMs 实践] 01 llama、alpaca、vicuna 整体介绍及 llama 推理过程
[pytorch] [求导练习] 01 sigmoid 函数自动求导练习(autograd,单变量,多变量 multivariables 形式)
[LLM & AIGC] 03 openai embedding (text-embedding-ada-002)基于 embedding 的文本语义匹配
【数字图像处理】视频关键帧检测(I-frame,P-frame),ffprobe,视频推荐,video embedding
[RLHF] 从 PPO rlhf 到 DPO,公式推导与原理分析
[pytorch distributed] 05 张量并行(tensor parallel),分块矩阵的角度,作用在 FFN 以及 Attention 上
[bert、t5、gpt] 04 构建 TransformerEncoderLayer(FFN 与 Layer Norm、skip connection)
[LLMs 实践] 17 llama2 源码分析(RMSNorm 与 SwiGLU)
[DRL] 从 TRPO 到 PPO(PPO-penalty,PPO-clip)
[AI Agent] llama_index RAG 原理及源码分析
[数值计算] 快速计算、秒算大数乘除运算,对数变换将乘除变为加减,再通过查表(logarithm table)获得10-99之间的对数值
[LangChain] 03 LangGraph 基本概念(AgentState、StateGraph,nodes,edges)
[pytorch 模型拓扑结构] 深入理解 nn.CrossEntropyLoss 计算过程(nn.NLLLoss(nn.LogSoftmax))
[personal chatgpt] 从 RoPE 到 CoPE(绝对位置编码,相对位置编码,Contextual Position Encoding)
FLUX修脸 修手 提示词反推 高清重绘教程!
[五分钟系列] 01 gensim embedding vectors 距离及可视化分析
[pytorch] 激活函数(梯度消失)sigmoid,clamp,relu(sparse representation,dying relu)
[pytorch] [求导练习] 06 计算图(computation graph)细节之 retain graph(multi output/backwar)
大模型落地,你必须要懂的Milvus向量数据库
[pytorch 网络拓扑结构] 深度理解 nn.BatchNorm1d
[pytorch distributed] torch 分布式基础(process group),点对点通信,集合通信
[pytorch distributed] 从 DDP、模型并行、流水线并行到 FSDP(NCCL,deepspeed 与 Accelerate)
[工具的使用] python jupyter 环境安装配置拓展(nbextension)(ExcecuteTime:执行时间,Table of Content)
[LangChain] 01 基础入门,LCEL 、Tool Use、RAG 以及 LangSmith