V
主页
从零开始手搓一个LLM(一)把参数缩减到足够单卡训练的NanoGPT
发布人
自己参考NanoGPT写代码的时候顺便做的视频,主要是在NanoGPT的基础上参考llama做了一些修改,并且去掉了一些多卡并行之类的函数,尽可能精简了代码
打开封面
下载高清视频
观看高清视频
视频下载器
3小时从0训练一个仅有27M的多模态GPT,个人显卡即可推理/训练!
【珍藏】从头开始用代码构建GPT - 大神Andrej Karpathy 的“神经网络从Zero到Hero 系列”之七
从0训练一个GPT的tokenizer
从0训练一个中英双语的GPT小模型 Retriever2-0.1B
通义千问-大模型vLLM推理与原理
从0训练一个GPT小模型 Retriever-0.1B
qwen大模型地部署和微调法律大模型(只需5G内存)
Rust从零实现nanoGPT
大模型技术栈全览
NanoGPT运行教学
手把手从头实现GPT by Andrej Karpathy
手搓GPT!用刘慈欣43部小说训练一个语言模型
【Andrej Karpathy:从零开始构建 GPT 系列】
从零开始训练大模型
[中配] 从零实现GPT (NanoGPT) - Andrej Karpathy
【从零手搓AI大模型1】中学生也能让AI有视觉?(3blue1brown)
从 LLM 原理剖析到手写实现
🔥 从零开始学习 RAG|1️⃣ RAG 概览
单卡GPU训练自己的LLM!花一杯拿铁的钱一小时练出属于自己的AIGC, 还能对杠ChatGPT
将ChatGPT训练成某个领域的专家【保姆级教程】
全栈大模型微调框架LLaMA Factory:从预训练到RLHF的高效实现
【精校】“让我们构建GPT Tokenizer”AI大神Andrej Karpathy最新大模型技术讲座 【中英】
如何将本地知识库接入大模型?
训练一个属于自己的大模型
如何训练一个写小说的大模型?
白话transformer(一)_注意力机制
训练自己的AI模型(可能)没有你想象的那么难
动手学RAG:Part1 什么是RAG?
1. LLM 模型和理论基础
LangChain🦜️🔗 + Ollama🦙 + LLM 实现本地 RAG
Andrej Karpathy《让我们复现GPT-2 (124M)|Let's reproduce GPT-2 (124M)》中英字幕
膜拜!这应该是整个B站讲解最通俗易懂的ChatGLM+Langchain实战教程,预训练&微调技术,官方大佬倾力打造!
深入浅出:用中学数学理解Transformer模型
【2024最新】54个大模型实战项目,练完即可就业,从入门到进阶,基础到框架,你想要的全都有,建议码住!超级适合小白入门学习,大模型教程
大模型+知识库:如何实现一个基础的LLM+RAG检索增强生成,附notebook
从零手搓中文大模型计划|Day03-04|预训练走起
【大模型学习路径】LLM知识点及面试相关
Qwen2-7B-微调-训练-评估
啥是大语言模型(LLM)?| AI大模型科普2
RAG已死?长上下文是否替代了RAG