V
主页
[personal chatgpt] peft LoRA merge pipeline(lora inject,svd)
发布人
本期 code: lora_inject: https://github.com/chunhuizhang/personal_chatgpt/blob/main/tutorials/peft/lora_inject.ipynb lora_merge: https://github.com/chunhuizhang/personal_chatgpt/blob/main/tutorials/peft/lora_merge.ipynb svd 与 lora_merge: https://github.com/chunhuizhang/personal_chatgpt/blob/main/tutorials/peft/lora_svd_basics.ipynb 往期视频: 1. SVD:https://www.bilibili.com/video/BV1u54y12766/ 2. SVD 与 lora merge:https://www.bilibili.com/video/BV1XK421a75H/ 3. LORA 基础:https://www.bilibili.com/video/BV15T411477N/ 4. Lora 源码分析:https://www.bilibili.com/video/BV1sV4y1z7uS/
打开封面
下载高清视频
观看高清视频
视频下载器
[矩阵分析] LoRA 矩阵分析基础之 SVD low rank approximation(低秩逼近)
[LLMs 实践] 02 LoRA(Low Rank Adaption)基本原理与基本概念,fine-tune 大语言模型
[personal chatgpt] trl reward model 与 RewardTrainer(奖励模型,分类模型)
[personal chatgpt] trl 基础介绍:reward model,ppotrainer
[personal chatgpt] Llama2 7B vs. Llama3 8B (词表、attention 及 mlp)
[LLMs 实践] 03 LoRA fine-tune 大语言模型(peft、bloom 7b)
[personal chatgpt] LLAMA 3 整体介绍(与 LLama 2 的不同?)
[personal chatgpt] gpt-4o tokenizer 及特殊中文tokens(压缩词表),o200k_base
[personal chatgpt] 从 RoPE 到 CoPE(绝对位置编码,相对位置编码,Contextual Position Encoding)
[personal chatgpt] trl rlhf PPOTrainer,原理分析与代码走读(OpenRLHF framework)
[personal chatgpt] instructGPT 中的 reward modeling,概率建模与损失函数性质
[bert、t5、gpt] 11 知识蒸馏(knowledge distill)huggingface trainer pipeline
[Python 机器学习] 深入理解 numpy(ndarray)的 axis(轴/维度)
[LLMs 实践] 14 llama2 introduction 及 fine tune llama2(guanaco dataset)
[LLMs tuning] 05 StackLlama、SFT+DPO(代码组织、数据处理,pipeline)
[LLMs tuning] 03 llama3-8B instruct SFT on Financial RAG
[AI Agent] Agentic Reasoning & workflow工作流,及translation-agent 一个具体的 agent 项目
[sbert 01] sentence-transformers pipeline
[动手写神经网络] 01 认识 pytorch 中的 dataset、dataloader(mnist、fashionmnist、cifar10)
[bert、t5、gpt] 01 fine tune transformers 文本分类/情感分析
[LLM & AIGC] 02 ChatGPT api 的简单介绍(system, user, assistant)与多轮对话
[pytorch 强化学习] 10 从 Q Learning 到 DQN(experience replay 与 huber loss / smooth L1)
[数据可视化] 绘制交互式 3d plot(interactive 3d plot, Axes3d) z=f(x, y) (三维空间中的 surface)
[蒙特卡洛方法] 02 重要性采样(importance sampling)及 python 实现
[小白向-深度学习装机指南] 01 双4090 涡轮版开箱启动 vlog(gpu burn,cpu burn)
[pytorch] 激活函数(梯度消失)sigmoid,clamp,relu(sparse representation,dying relu)
[pytorch 强化学习] 01 认识环境(environment,gym.Env)以及 CartPole-v0/v1 环境
【python 运筹优化】scipy.optimize.minimize 使用
[蒙特卡洛方法] 01 从黎曼和式积分(Reimann Sum)到蒙特卡洛估计(monte carlo estimation)求积分求期望
[generative models] 概率建模视角下的现代生成模型(生成式 vs. 判别式,采样与密度估计)
[pytorch distributed] 01 nn.DataParallel 数据并行初步
[LLMs 实践] 01 llama、alpaca、vicuna 整体介绍及 llama 推理过程
[LLM && AIGC] visual chatgpt 01 认识 image captioning 及 blip model
[DRL] 从策略梯度到 TRPO(Lagrange Duality,拉格朗日对偶性)
[python 多进程、多线程] 03 GIL、threading、多进程,concurrent.futures
[调包侠] 使用深度学习模型(paddlehub - humanseg)进行人物提取(前景提取、抠图)
[pytorch distributed] 张量并行与 megtron-lm 及 accelerate 配置
[工具的使用] python jupyter 环境安装配置拓展(nbextension)(ExcecuteTime:执行时间,Table of Content)
[动手写 Transformer] 手动实现 Transformer Decoder(交叉注意力,encoder-decoder cross attentio)
[pytorch 网络拓扑结构] 深入理解 nn.LayerNorm 的计算过程