V
主页
【7】手写大模型代码(中)( LLM:从零到一)
发布人
#关于视频 如果你对大语言模型感兴趣但一开始对其一无所知、并非相关专业,也没有机器学习的基础,很难去摸索该如何开始。该怎么办?虽然网上有很多教学视频,然而,挑战在于所讲述概念常常对初学者不够清晰(大部份默认你有机器学习的基础)。而我的这个学习路径将引导你了解人工智能和机器学习的逻辑与常识, 然后帮助你构建自己的大型语言模型。 #关于我 连续创业者。2003年至2007年多伦多大学学习计算机科学。 网站:https://waylandzhang.github.io
打开封面
下载高清视频
观看高清视频
视频下载器
GPT大语言模型微调原理
闲聊:Transformer中反向传播+参数权重更新的代码片段演示~
大模型时代必学!全网最新最全的大语言模型(LLM)学习路径及资料汇总,配套教程、代码、论文全都有!
【18】大模型推理vs.训练的相同与不同
训练GPT大模型需要花多少钱?【2】
Attention的几何逻辑(中)【9】
QKV里的Q啥被叫做Query? #大模型 #transformer
试试小红书的开源InstantID文生图模型【14】
大语言模型的训练原理(LLM:从零到一)【2】
LayerNorm层归一化到底做什么的?
Multi-Head Attention的QKV是什么【12】
彻底理解Transformer概念(LLM:从零到一)【3】
【8】手写大模型(下) LLM:从零到一)
谁都能听懂的Transformer【5】
【C++与大模型】模板技法实现任意类型下的LLM大模型推理
Transformer Attention的QKV完结篇
如何知道一个大模型在推理和训练时需要多少显存?
【研1基本功 (真的很简单)Encoder Embedding】手写编码模块、构建Encoder Layer
LLM微调(Finetune)技术概述 & LoRA解读
【13】Attention的QKV输出的到底是什么?
先跟我一起过概念(上)【8】
Transformer里词嵌入+位置信息的深层逻辑
【研1基本功 (真的很简单)LoRA 低秩微调】大模型微调基本方法1 —— bonus "Focal loss"
大模型学习课程录播分享
解决大模型幻觉《OPERA - Alleviating Hallucination》论文导读
【研1基本功 (真的很简单)注意力机制】手写多头注意力机制
一个视频看懂VAE的原理以及关于latent diffusion的思考
GPT发展简史【1】
Attention Visualization 注意力权重矩阵可视化
五分钟秒懂transformer中的神经网络
吹爆!2024最详细的大模型学习路线整理出来啦!迪哥手把手教你最高效的大模型学习方法,轻松搞定AIGC大模型!(大模型训练/大模型微调)
如何理解#transformer中的学习率?
中文微调Llama-3 之抛砖引玉(LoRA、Flash Attention2、 Quantization)
Sora、Stable Diffusion、可灵文生图视频大模型原理讲解
【Python 高级特性】装饰器:不修改代码,就能改变函数功能的强大特性
硕士生去搞计算机视觉,是纯纯的脑瘫行为!
啥是大语言模型(LLM)?| AI大模型科普2
研究生须知:要基于pytorch做深度学习,但是我代码水平很低,我应该如何学习呢?
【公式推导】还在头疼Diffusion模型公式吗?Diffusion理论公式喂饭式超详细逐步推导来了!
【迪哥谈AI】顶会CVPR2024,YOLO-World杀疯了!迪哥手把手带深度解析YOLO-World实时开集目标检测,极其通俗易懂