V
主页
五分钟秒懂transformer中的神经网络
发布人
#关于视频 如果你对大语言模型感兴趣但一开始对其一无所知、并非相关专业,也没有机器学习的基础,很难去摸索该如何开始。该怎么办?虽然网上有很多教学视频,然而,挑战在于所讲述概念常常对初学者不够清晰(大部份默认你有机器学习的基础)。而我的这个学习路径将引导你了解人工智能和机器学习的逻辑与常识, 然后帮助你构建自己的大型语言模型。 #关于我 连续创业者。2003年至2007年多伦多大学学习计算机科学。 网站:https://waylandzhang.github.io
打开封面
下载高清视频
观看高清视频
视频下载器
【Transformer模型】曼妙动画轻松学,形象比喻贼好记
Transformer模型简介
谁都能听懂的Transformer【5】
这是B站目前讲的最好的【Transformer模型】教程!带你从零详细解读Transformer模型 一次学到饱!——人工智能|深度学习|神经网络
Transformer从零详细解读(可能是你见过最通俗易懂的讲解)
超强动画,一步一步深入浅出解释Transformer原理!
彻底理解Transformer概念(LLM:从零到一)【3】
五分钟秒懂神经网络原理,机器学习入门教程
不需要懂的神经网络【10】
如何训练一个写小说的大模型?
Ai各学科自学路线图、到底该咋学全给你整明白的!
如何理解学习率
清晰说明——什么是大语言模型(LLM:从零到一)【1】
Transformer论文逐段精读【论文精读】
大语言模型的训练原理(LLM:从零到一)【2】
【可视化】Transformer中多头注意力的计算过程
Attention Visualization 注意力权重矩阵可视化
深入浅出:用中学数学理解Transformer模型
手写大模型代码(上)( LLM:从零到一)【6】
Attention的几何逻辑(中)【9】
【18】大模型推理vs.训练的相同与不同
Transformer Attention的QKV完结篇
【7】手写大模型代码(中)( LLM:从零到一)
训练GPT大模型需要花多少钱?【2】
五分钟秒懂层归一化
【13】Attention的QKV输出的到底是什么?
如何理解#transformer中的学习率?
【17】Transformer最终输出逻辑及参数量
Transformer里词嵌入+位置信息的深层逻辑
Tokenization文字转数字【6】
LayerNorm及Softmax概念(概念终)【11】
GPT大语言模型微调原理
Multi-Head Attention的QKV是什么【12】
脑力工作者的3种累&3种较佳的休息方式
高度概括聊聊看Transformer都在做什么
大模型实际上就是两个文件【4】
100万Token窗口长度的大模型背后实现技术原理
《Attention Is All You Need》论文解读
从编解码和词嵌入开始,一步一步理解Transformer,注意力机制(Attention)的本质是卷积神经网络(CNN)
闲聊:我如何从零基础实现一个月内掌握大模型!跟着我学,你也可以轻松弯道超车~