V
主页
[LLMs 实践] 01 llama、alpaca、vicuna 整体介绍及 llama 推理过程
发布人
本期 code:https://github.com/chunhuizhang/personal_chatgpt/blob/main/tutorials/01_llama_intro.ipynb
打开封面
下载高清视频
观看高清视频
视频下载器
三个小羊驼 Llama&Alpaca&Vicuna + Finetune
AI推理优化视角解读LLaMA模型结构和源代码
Llama 2 模型结构解析
【手把手带你实战HuggingFace Transformers-入门篇】基础知识与环境安装
Chinese LLaMA Alpaca 案例实战-01-项目概览
[LLMs inference] quantization 量化整体介绍(bitsandbytes、GPTQ、GGUF、AWQ)
第十五课:LLaMA
Chinese- LLaMA- Alpaca 案例实战-02-指令数据生成
[LLMs 实践] 02 LoRA(Low Rank Adaption)基本原理与基本概念,fine-tune 大语言模型
[LLMs 实践] 12 LLM SFT training (trl SFTTrainer、alpaca dataset)
[LLMs 实践] 20 llama2 源码分析 cache KV(keys、values cache)加速推理
[LLMs 实践] 06 LLaMA,Alpaca LoRA 7B 推理
transformers源码阅读——如何看懂模型代码(以llama为例)
Vicuna大语言模型部署 - 手把手教你搭建属于自己的ChatGPT(上)
[LLMs 实践] 221 llama2 源码分析 generate 的完整过程
[LLMs 实践] 17 llama2 源码分析(RMSNorm 与 SwiGLU)
[番外] float16 与 bf16 表示和计算细节
llama-2-模型推理
[LLMs 实践] 03 LoRA fine-tune 大语言模型(peft、bloom 7b)
[LLMs 实践] 11 gradient accumulation 显存优化 trick
2023吴恩达新课微调大模型Finetuning LLMs,斯坦福吴恩达 | Sharon Zhou教授联合出品,新手看完信手拈来,拿走不谢!(中英字幕)
[LLMs 实践] 19 llama2 源码分析 RoPE apply_rotary_emb 从绝对位置编码到相对位置编码
[pytorch distributed] 01 nn.DataParallel 数据并行初步
[personal chatgpt] LLAMA 3 整体介绍(与 LLama 2 的不同?)
llama.cpp 源码解析-- CUDA版本流程与逐算子详解
【官方教程】ChatGLM-6B 微调:P-Tuning,LoRA,Full parameter
[LLMs 实践] 04 PEFT/LoRA 源码分析
[LLMs tuning] 01 trl SFTTrainer 中的 formatting_func 与 DataCollatorForCompletion
[论文速览]LoRA: Low-Rank Adaptation of Large Language Models[2106.09685]
图解llama架构 解读源码实现
[LLMs 实践] 13 gradient checkpointing 显存优化 trick
[LLMs 实践] 18 llama2 源码分析 RoPE 相对位置编码的复数形式
又小性能又好最接近ChatGPT的Vicuna介绍 以及 如何在你的CPU & GPU上运行Vicuna
[动手写bert系列] 01 huggingface tokenizer (vocab,encode,decode)原理及细节
[LLMs 实践] 07 fp16 与自动混合精度训练(amp)显著提升 batch size
[小白向-深度学习装机指南] 01 双4090 涡轮版开箱启动 vlog(gpu burn,cpu burn)
[personal chatgpt] Llama2 7B vs. Llama3 8B (词表、attention 及 mlp)
[LLMs 实践] 08 LLM.int8 量化细节 (load_in_8bit)以及 bitsandbytes 库
深度使用将近 1 个月后,我才发现 Vicuna 13B 还能这么用
[LLMs 实践] 21 llama2 源码分析 GQA:Grouped Query Attention