V
主页
Attention的几何逻辑(中)【9】
发布人
#关于视频 如果你对大语言模型感兴趣但一开始对其一无所知、并非相关专业,也没有机器学习的基础,很难去摸索该如何开始。该怎么办?虽然网上有很多教学视频,然而,挑战在于所讲述概念常常对初学者不够清晰(大部份默认你有机器学习的基础)。而我的这个学习路径将引导你了解人工智能和机器学习的逻辑与常识, 然后帮助你构建自己的大型语言模型。 #关于我 连续创业者。2003年至2007年多伦多大学学习计算机科学。 网站:https://waylandzhang.github.io
打开封面
下载高清视频
观看高清视频
视频下载器
Multi-Head Attention的QKV是什么【12】
给文字加位置【7】
【13】Attention的QKV输出的到底是什么?
Attention Visualization 注意力权重矩阵可视化
《Attention Is All You Need》论文解读
Transformer里词嵌入+位置信息的深层逻辑
换一个角度理解Transformer中的QKV
Transformer Attention的QKV完结篇
大语言模型的训练原理(LLM:从零到一)【2】
注意力机制与输出预测(LLM:从零到一)【5】
【7】手写大模型代码(中)( LLM:从零到一)
手写大模型代码(上)( LLM:从零到一)【6】
五分钟秒懂transformer中的神经网络
【17】Transformer最终输出逻辑及参数量
GPT大语言模型微调原理
通过看DeepSeek-v2思考目前大模型学习路径
清晰说明——什么是大语言模型(LLM:从零到一)【1】
LayerNorm及Softmax概念(概念终)【11】
如何理解学习率
如何训练一个写小说的大模型?
彻底理解Transformer概念(LLM:从零到一)【3】
中文微调Llama-3 之抛砖引玉(LoRA、Flash Attention2、 Quantization)
Nature发布人类大脑神经元新发现
嵌入向量与位置信息(LLM:从零到一)【4】
【全748集】字节大佬终于把 AI大模型(LLM)讲清楚了!通俗易懂,2024最新内部版,学完即就业!AGI商业化落地创业营,一门非常落地的AI大模型创业课!!
【8】手写大模型(下) LLM:从零到一)
谁都能听懂的Transformer【5】
五分钟秒懂层归一化
Nemotron技术拆解
Tokenization文字转数字【6】
最新大语言模型LLM结合知识图谱KG项目,全方位超越Chatgpt4!包含命名体识别、关系识别、知识图谱构建、事件抽取、事件触发词识别、事件论元抽取
【18】大模型推理vs.训练的相同与不同
2024NJUNLP夏令营-南京大学自然语言处理组(南大NLP)
如何配置deepspeed多卡训练大模型
LayerNorm层归一化到底做什么的?
KAN vs. MLP架构的简单解读
100万Token窗口长度的大模型背后实现技术原理
高度概括聊聊看Transformer都在做什么
闲聊:如何看待周鸿祎、马斯克对Sora的评价
《智能计算系统-从深度学习到大模型 第2版》第九章-大模型设计系统