V
主页
[LLMs tuning] 03 llama3-8B instruct SFT on Financial RAG
发布人
本期 code:https://github.com/chunhuizhang/llms_tuning/blob/main/tutorials/finetune/examples/finetune_llama3_for_RAG.ipynb
打开封面
下载高清视频
观看高清视频
视频下载器
[LLMs 实践] 04 PEFT/LoRA 源码分析
[LLMs tuning] 06 多轮对话 qlora SFT(Multi-turn Conversation)
[LLMs tuning] 05 StackLlama、SFT+DPO(代码组织、数据处理,pipeline)
[LLMs inference] quantization 量化整体介绍(bitsandbytes、GPTQ、GGUF、AWQ)
[LLMs tuning] 04 optimizer Trainer 优化细节(AdamW,grad clip、Grad Norm)等
[LangChain] 01 基础入门,LCEL 、Tool Use、RAG 以及 LangSmith
[LangChain] 03 LangGraph 基本概念(AgentState、StateGraph,nodes,edges)
[LLMs 实践] 02 LoRA(Low Rank Adaption)基本原理与基本概念,fine-tune 大语言模型
[LLMs tuning] 01 trl SFTTrainer 中的 formatting_func 与 DataCollatorForCompletion
[LLMs 实践] 12 LLM SFT training (trl SFTTrainer、alpaca dataset)
[LLMs 实践] 01 llama、alpaca、vicuna 整体介绍及 llama 推理过程
[LLMs 实践] 03 LoRA fine-tune 大语言模型(peft、bloom 7b)
[LLMs tuning] 02 accelerate ddp 与 trl SFTTrainer
[AI Agent] llama_index RAG 原理及源码分析
[LLMs 实践] 221 llama2 源码分析 generate 的完整过程
[AI Agent] function calling & tool uses 与 argument generation
[LLMs 实践] 19 llama2 源码分析 RoPE apply_rotary_emb 从绝对位置编码到相对位置编码
一键提取知识图谱-灵感来自lightrag
[personal chatgpt] Llama2 7B vs. Llama3 8B (词表、attention 及 mlp)
吴恩达同步最新AI课,第59讲:LLMs作为操作系统:智能体的记忆-LLMs as Operating Systems: Agent Memory
[LangChain] 04 LangGraph 构建复杂 RAG workflow(Self-corrective)
[LLMs 实践] 13 gradient checkpointing 显存优化 trick
谁是最人气的LLM微调工具?
你的知识库的准确率为什么低于95%?
吴恩达重磅新发AI课,第60讲:让AI听话的终极安全密码--Safe and reliable AI via guardrails
[RLHF] 从 PPO rlhf 到 DPO,公式推导与原理分析
[LLMs 实践] 20 llama2 源码分析 cache KV(keys、values cache)加速推理
[LLMs 实践] 07 fp16 与自动混合精度训练(amp)显著提升 batch size
[LLMs 实践] 09 BPE gpt2 tokenizer 与 train tokenizer
[personal chatgpt] 从 RoPE 到 CoPE(绝对位置编码,相对位置编码,Contextual Position Encoding)
[LLMs 实践] 11 gradient accumulation 显存优化 trick
ollama部署LightRAG或GraphRAG的一个小小小坑,以及LightRAG最新可视化展示,html or neo4j
[pytorch distributed] 01 nn.DataParallel 数据并行初步
RAG实战系列,如何针对word文档中的表格进行问答,解决跨页表格问题
[DRL] 从 TRPO 到 PPO(PPO-penalty,PPO-clip)
[动手写神经网络] 手动实现 Transformer Encoder
[LLMs 实践] 10 预训练语料,mapping & streaming(load_dataset)
[pytorch 强化学习] 10 从 Q Learning 到 DQN(experience replay 与 huber loss / smooth L1)
[pytorch 强化学习] 01 认识环境(environment,gym.Env)以及 CartPole-v0/v1 环境
[LLMs 实践] 14 llama2 introduction 及 fine tune llama2(guanaco dataset)