V
主页
[LLMs 实践] 12 LLM SFT training (trl SFTTrainer、alpaca dataset)
发布人
本期 code: https://github.com/chunhuizhang/personal_chatgpt/blob/main/tutorials/llm_training_sft.ipynb
打开封面
下载高清视频
观看高清视频
视频下载器
[LLMs tuning] 02 accelerate ddp 与 trl SFTTrainer
[LLMs tuning] 05 StackLlama、SFT+DPO(代码组织、数据处理,pipeline)
[LLMs 实践] 14 llama2 introduction 及 fine tune llama2(guanaco dataset)
【AI大模型实战】两小时带你彻底掌握提示工程(Prompt Engineering)超详细,草履虫都能听懂!!!(大模型|LLM|多模态|人工智能)
[LLMs tuning] 06 多轮对话 qlora SFT(Multi-turn Conversation)
[LLMs 实践] 01 llama、alpaca、vicuna 整体介绍及 llama 推理过程
[LLMs tuning] 01 trl SFTTrainer 中的 formatting_func 与 DataCollatorForCompletion
[LLMs 实践] 10 预训练语料,mapping & streaming(load_dataset)
大模型RAG企业项目实战:手把手带你搭建一套完整的RAG系统,项目实战+部署源码,纯小白都能学明白!LLM大模型_RAG_大模型微调_多模态
[LLMs 实践] 04 PEFT/LoRA 源码分析
[LLMs inference] hf transformers 中的 KV cache
[动手写神经网络] 01 认识 pytorch 中的 dataset、dataloader(mnist、fashionmnist、cifar10)
[LLMs 实践] 08 LLM.int8 量化细节 (load_in_8bit)以及 bitsandbytes 库
[LLMs 实践] 18 llama2 源码分析 RoPE 相对位置编码的复数形式
[LLMs 实践] 21 llama2 源码分析 GQA:Grouped Query Attention
[LLMs inference] quantization 量化整体介绍(bitsandbytes、GPTQ、GGUF、AWQ)
[LLMs 实践] 02 LoRA(Low Rank Adaption)基本原理与基本概念,fine-tune 大语言模型
[LLMs 实践] 17 llama2 源码分析(RMSNorm 与 SwiGLU)
[LLMs 实践] 06 LLaMA,Alpaca LoRA 7B 推理
[LLMs tuning] 03 llama3-8B instruct SFT on Financial RAG
[LLMs 实践] 19 llama2 源码分析 RoPE apply_rotary_emb 从绝对位置编码到相对位置编码
[LLMs 实践] 13 gradient checkpointing 显存优化 trick
[LLMs 实践] 20 llama2 源码分析 cache KV(keys、values cache)加速推理
[LLMs 实践] 09 BPE gpt2 tokenizer 与 train tokenizer
[矩阵分析] LoRA 矩阵分析基础之 SVD low rank approximation(低秩逼近)
[LLMs 实践] 11 gradient accumulation 显存优化 trick
[pytorch] BN、LN、RMSNorm 及 pre LN vs. post LN 对比,标准化
【大模型实战】深度解析Transformers模型量化!!!
【深度学习环境搭建】01 本机、GPU服务器端深度学习环境搭建(代码、数据共享)
[蒙特卡洛方法] 04 重要性采样补充,数学性质及 On-policy vs. Off-policy
[AI硬件科普] 内存/显存带宽,从 NVIDIA 到苹果 M4
[实战kaggle系列] 1. 使用 kaggle 命令行 api,进行数据集的下载
雷小Py-025:Xarray的内存/效率危机终结者Dask_2024.11.09
[LLMs 实践] 221 llama2 源码分析 generate 的完整过程
[动手写神经网络] 手动实现 Transformer Encoder
[损失函数设计] 为什么多分类问题损失函数用交叉熵损失,而不是 MSE
一个很恶心,但是一个月能拿9个offer的方法!
[LLMs 实践] 15 llama2 源码初步(text completion & chat completion)
[LLM & AIGC] 03 openai embedding (text-embedding-ada-002)基于 embedding 的文本语义匹配
吹爆!这绝对是你见过最通俗易懂的大模型微调实战教程,手把手带你实现大模型预训练和模型微调!!