V
主页
[LLMs 实践] 11 gradient accumulation 显存优化 trick
发布人
本期 code:https://github.com/chunhuizhang/personal_chatgpt/blob/main/tutorials/gradient_accumulation.ipynb
打开封面
下载高清视频
观看高清视频
视频下载器
[LLMs 实践] 13 gradient checkpointing 显存优化 trick
[LLMs tuning] 04 optimizer Trainer 优化细节(AdamW,grad clip、Grad Norm)等
[LLMs 实践] 12 LLM SFT training (trl SFTTrainer、alpaca dataset)
[pytorch optim] 优化器相关 AdaGrad(adaptive gradient) 与 RMSprop,自适应梯度
[LLMs 实践] 08 LLM.int8 量化细节 (load_in_8bit)以及 bitsandbytes 库
[损失函数设计] 为什么多分类问题损失函数用交叉熵损失,而不是 MSE
[LLMs 实践] 01 llama、alpaca、vicuna 整体介绍及 llama 推理过程
[LLMs 实践] 10 预训练语料,mapping & streaming(load_dataset)
[AI 核心概念及计算] 优化 01 梯度下降(gradient descent)与梯度上升(gradient ascent)细节及可视化分析
[pytorch distributed] 03 DDP 初步应用(Trainer,torchrun)
[LLMs 实践] 02 LoRA(Low Rank Adaption)基本原理与基本概念,fine-tune 大语言模型
[LLMs 实践] 07 fp16 与自动混合精度训练(amp)显著提升 batch size
[显卡环境] CUDA_VISIBLE_DEVICES 控制显卡可见性
[LLMs 实践] 04 PEFT/LoRA 源码分析
[LLMs 实践] 19 llama2 源码分析 RoPE apply_rotary_emb 从绝对位置编码到相对位置编码
[LLMs inference] quantization 量化整体介绍(bitsandbytes、GPTQ、GGUF、AWQ)
[pytorch 强化学习] 13 基于 pytorch 神经网络实现 policy gradient(REINFORCE)求解 CartPole
【python 运筹优化】scipy.optimize.minimize 使用
[LLMs 实践] 03 LoRA fine-tune 大语言模型(peft、bloom 7b)
[LLMs 实践] 17 llama2 源码分析(RMSNorm 与 SwiGLU)
[LLMs 实践] 21 llama2 源码分析 GQA:Grouped Query Attention
[LLMs 实践] 20 llama2 源码分析 cache KV(keys、values cache)加速推理
[LLMs 实践] 09 BPE gpt2 tokenizer 与 train tokenizer
[LLMs 实践] 221 llama2 源码分析 generate 的完整过程
[动手写神经网络] 手动实现 Transformer Encoder
[LLMs 实践] 14 llama2 introduction 及 fine tune llama2(guanaco dataset)
[bert、t5、gpt] 11 知识蒸馏(knowledge distill)huggingface trainer pipeline
[LLMs inference] hf transformers 中的 KV cache
[LLMs tuning] 05 StackLlama、SFT+DPO(代码组织、数据处理,pipeline)
[LLMs tuning] 01 trl SFTTrainer 中的 formatting_func 与 DataCollatorForCompletion
[LLMs 实践] 18 llama2 源码分析 RoPE 相对位置编码的复数形式
【AI大模型实战】两小时带你彻底掌握提示工程(Prompt Engineering)超详细,草履虫都能听懂!!!(大模型|LLM|多模态|人工智能)
[LLMs tuning] 02 accelerate ddp 与 trl SFTTrainer
[pytorch] 激活函数,从 ReLU、LeakyRELU 到 GELU 及其梯度(gradient)(BertLayer,FFN,GELU)
大模型RAG企业项目实战:手把手带你搭建一套完整的RAG系统,项目实战+部署源码,纯小白都能学明白!LLM大模型_RAG_大模型微调_多模态
[AI硬件科普] 内存/显存带宽,从 NVIDIA 到苹果 M4
[LLMs tuning] 03 llama3-8B instruct SFT on Financial RAG
[动手写bert系列] 01 huggingface tokenizer (vocab,encode,decode)原理及细节
[pytorch 强化学习] 01 认识环境(environment,gym.Env)以及 CartPole-v0/v1 环境
[Python 机器学习] 深入理解 numpy(ndarray)的 axis(轴/维度)