V
主页
《强化学习》第3.1-3.5章 MDP 马尔可夫决策过程
发布人
#关于视频 如果你对大语言模型感兴趣但一开始对其一无所知、并非相关专业,也没有机器学习的基础,很难去摸索该如何开始。该怎么办?虽然网上有很多教学视频,然而,挑战在于所讲述概念常常对初学者不够清晰(大部份默认你有机器学习的基础)。而我的这个学习路径将引导你了解人工智能和机器学习的逻辑与常识, 然后帮助你构建自己的大型语言模型。 #关于我 连续创业者。2003年至2007年多伦多大学学习计算机科学。 网站:https://waylandzhang.github.io
打开封面
下载高清视频
观看高清视频
视频下载器
《强化学习》第3.6-3.8章 MDP 马尔可夫决策过程
彻底理解Transformer概念(LLM:从零到一)【3】
如何训练一个写小说的大模型?
Attention的几何逻辑(中)【9】
如何理解学习率
《强化学习》第6章 TD时序差分算法
《Attention Is All You Need》论文解读
AlphaFold 3 模型架构
【17】Transformer最终输出逻辑及参数量
Transformer里词嵌入+位置信息的深层逻辑
注意力机制与输出预测(LLM:从零到一)【5】
如何理解#transformer中的学习率?
《强化学习》第4.1-4.3章 策略更新规则(上)
LayerNorm层归一化到底做什么的?
通过看DeepSeek-v2思考目前大模型学习路径
Attention Visualization 注意力权重矩阵可视化
变分自编码器的从零实现与数学原理
训练GPT大模型需要花多少钱?【2】
浅谈模型超参数的设计原理
高度概括聊聊看Transformer都在做什么
100万Token窗口长度的大模型背后实现技术原理
1.1章-背景介绍(闲侃较多)
手写大模型代码(上)( LLM:从零到一)【6】
Nature发布人类大脑神经元新发现
换一个角度理解Transformer中的QKV
【7】手写大模型代码(中)( LLM:从零到一)
试试小红书的开源InstantID文生图模型【14】
谁都能听懂的Transformer【5】
阿里的语音识别模型SenseVoice底层原理
【16】残差连接和Dropout
【13】Attention的QKV输出的到底是什么?
反向更新的数学原理
【13】试试Stable Diffusion模型生成图片 逻辑与演示
五分钟秒懂层归一化
【全374集】2024最新清华内部版!终于把AI大模型(LLM)讲清楚了!全程干货讲解,通俗易懂,拿走不谢!
清晰说明——什么是大语言模型(LLM:从零到一)【1】
给文字加位置【7】
重磅炸弹!Stability AI发布最新大模型SD3.5(附本地安装教程)时隔四个月研究的最新成果,也是开源免费使用 一句话生成任何你想要的图片,
DDPM的从零实现与原理讲解
KAN vs. MLP架构的简单解读