V
主页
三分钟学会大模型PEFT的LORA算法 lora_rank, lora_alpha
发布人
三分钟学会大模型PEFT的LORA算法
打开封面
下载高清视频
观看高清视频
视频下载器
LoRA是什么?| 5分钟讲清楚LoRA的工作原理
作者亲自讲解:LoRA 是什么?
LoRA_01_算法原理深入解析-上集
Peft: 从Adaptor, Prefix Tuning, 到LoRA
[论文速览]LoRA: Low-Rank Adaptation of Large Language Models[2106.09685]
你知道什么是LoRa吗?一分钟带你了解
[LLMs 实践] 02 LoRA(Low Rank Adaption)基本原理与基本概念,fine-tune 大语言模型
什么是 Low Rank Adapatation (Lora)? Huggingface lora手把手入门实操
动画理解Pytorch 大模型分布式训练技术 DP,DDP,DeepSpeed ZeRO技术
60分钟速通LORA训练!绝对是你看过最好懂的AI绘画模型训练教程!StableDiffusion超详细训练原理讲解+实操教学,LORA参数详解与训练集处理技巧
【Lora模型使用】通俗演义! Lora有什么用?怎么安装?怎么使用?stable-diffusion教程
QLORA大模型微调算法分析
通俗易懂理解全量微调和LoRA微调
PEFT与LORA, 大模型高效调优, 快速上手实战
几百次大模型LoRA和QLoRA 微调实践的经验分享
怎么加快大模型推理?10分钟学懂VLLM内部原理,KV Cache,PageAttention
【研1基本功 (真的很简单)LoRA 低秩微调】大模型微调基本方法1 —— bonus "Focal loss"
LORA大模型微调算法原理解析
微调LLM中的魔鬼细节|大型语言模型lora调教指南
Flash Attention 为什么那么快?原理讲解
大模型微调看这个视频就够了 SFT NEFTune
第二十一课:PEFT
一层神经网络也可以拟合任意函数?
AI 工程师都应该知道的GPU工作原理,TensorCore
零基础学习强化学习算法:ppo
DPO (Direct Preference Optimization) 算法讲解
模型量化四:量化感知训练 QAT pytorch里进行量化感知训练
你知道用什么指标评价一个大模型的好坏吗?PPL,MMLU,MATH,GPQA,BBH,IF-EVAL,MMLU-PRO
模型量化六:QLoRA 4bit 量化 NormalFloat4 量化
大模型修炼之道(三): Llama系列讲解 Llama1,Llama2, Llama3
LLM微调(Finetune)技术概述 & LoRA解读
十分钟搞明白Adam和AdamW,SGD,Momentum,RMSProp,Adam,AdamW
【机器学习】直观理解信息量和信息熵的含义
你真的理解交叉熵损失函数了吗?
大模型修炼之道(二): GPT系列GPT1,GPT2,GPT3,GPT4
10分钟搞明白如何设置大模型推理参数,top_k,top_p, temperature, num_beams。温度,beam search。
模型量化二:训练后动态量化 PTQ PTDQ,pytorch里进行模型训练后动态量化
模型量化一:量化基础 对称量化 非对称量化 极大值量化 零点量化
大模型预训练看这个视频就够了
Batch Normalization(批归一化)和 Layer Normalization(层归一化)的一些细节可能和你想的并不一样