V
主页
LLM面试_模型参数量计算
发布人
文字版:https://fabulous-fuchsia-dd4.notion.site/LLM-caf987c8a3d8455dab4e8d6944316fe5?pvs=4
打开封面
下载高清视频
观看高清视频
视频下载器
吴恩达《使用LlamaIndex构建主动式RAG|Building Agentic RAG with LlamaIndex》中英字幕
LLM面试_为什么常用Decoder Only结构
从零开始手搓一个LLM(一)把参数缩减到足够单卡训练的NanoGPT
Llama 3.1论文精读 · 1. 导言【论文精读·54】
第二十课:MoE
大语言模型LLM第三集:RLHF
[QKV attention] kv-cache、decoder only vs. BERT, 单向注意力 vs. 双向注意力
手写大模型代码(上)( LLM:从零到一)【6】
llama.cpp 源码解析-- CUDA版本流程与逐算子详解
【官方双语】ChatGPT背后是什么模型和原理?详细阐述decoder-only transformer模型!
LLM面试_padding side
第十五课:LLaMA
LoRA_01_算法原理深入解析-上集
从零开始学习大语言模型(一)
【手撕LLM面试题系列】大模型推理优化
98%准确率:OpenAI的RAG技巧,你也可以用起来!
大语言模型LLM第一集:prompt engineering
为什么attention计算要除根号d
为什么现在的LLM都是Decoder only的架构呢?
RAG的死穴在哪?
理解大模型的参数和参数量
吴恩达大模型系列教程:2024吴恩达LLM大模型教程,手把手带你实现大模型预训练和模型微调,中英字幕(附学习课件)
大模型量化一网打尽(一)理论基础
你还不懂旋转位置编码吗?
相关性04:BERT模型 (Part 1) - 模型结构、线上推理
通俗易懂-大模型的关键技术之一:旋转位置编码rope (2)
面试官:如何解决大模型的badcase?
【大语言模型】吴恩达最新:基于LangChain的大语言模型应用开发+构建和评估高级的RAG模型应用 教程,大模型应用落地(附大模型开发文档)
20240109组会分享——RAG
十分钟搞明白Adam和AdamW,SGD,Momentum,RMSProp,Adam,AdamW
B站强推!这可能是唯一能将LLAMA3讲清楚的教程了,llaama3微调-量化-部署-应用实例解读,还学不会的你来锤爆我!人工智能|机器学习|深度学习
大模型技术栈全览
如何知道一个大模型在推理和训练时需要多少显存?
24年大模型面试必看,基础知识Transformer面试题-北大博士后卢菁博士授课
能刷掉80%候选人的一道大模型面试题!
【深度学习分享】自动计算模型参数量和FLOPs
都发布一个月了【还不会微调Llama3吗】!迪哥十分钟带你微调-量化-部署-应用一条龙解读!草履虫都能学会!!!
大语言模型LLM基础之Tokenizer完全介绍
ChatGPT提问教程(附合集)
ollama vs vllm - 开启并发之后的 ollama 和 vllm 相比怎么样?