V
主页
Nemotron技术拆解
发布人
#关于视频 如果你对大语言模型感兴趣但一开始对其一无所知、并非相关专业,也没有机器学习的基础,很难去摸索该如何开始。该怎么办?虽然网上有很多教学视频,然而,挑战在于所讲述概念常常对初学者不够清晰(大部份默认你有机器学习的基础)。而我的这个学习路径将引导你了解人工智能和机器学习的逻辑与常识, 然后帮助你构建自己的大型语言模型。 #关于我 连续创业者。2003年至2007年多伦多大学学习计算机科学。 网站:https://waylandzhang.github.io
打开封面
下载高清视频
观看高清视频
视频下载器
Attention的几何逻辑(中)【9】
KAN vs. MLP架构的简单解读
【13】Attention的QKV输出的到底是什么?
LayerNorm及Softmax概念(概念终)【11】
Transformer里词嵌入+位置信息的深层逻辑
高度概括聊聊看Transformer都在做什么
《强化学习》第2章 多臂老虎机问题 Multi-Armed Problem
如何训练一个写小说的大模型?
LayerNorm层归一化到底做什么的?
五分钟秒懂transformer中的神经网络
彻底理解Transformer概念(LLM:从零到一)【3】
Multi-Head Attention的QKV是什么【12】
不需要懂的神经网络【10】
【17】Transformer最终输出逻辑及参数量
有点恶心,但是一周可以拿5个大模型岗offer
Transformer Attention的QKV完结篇
先跟我一起过概念(上)【8】
Tokenization文字转数字【6】
【18】大模型推理vs.训练的相同与不同
给文字加位置【7】
如何理解学习率
Sora、Stable Diffusion、可灵文生图视频大模型原理讲解
如何理解#transformer中的学习率?
换一个角度理解Transformer中的QKV
训练GPT大模型需要花多少钱?【2】
(超爽中英!) 2024公认最好的【吴恩达LangChain+RAG】教程!更适合中国宝宝体质,全程干货无废话,学完成为AGI大佬!(附课件+代码)
浅谈模型超参数的设计原理
五分钟秒懂层归一化
100万Token窗口长度的大模型背后实现技术原理
谁都能听懂的Transformer【5】
【16】残差连接和Dropout
清晰说明——什么是大语言模型(LLM:从零到一)【1】
QKV里的Q啥被叫做Query? #大模型 #transformer
大语言模型的训练原理(LLM:从零到一)【2】
《Attention Is All You Need》论文解读
【大模型技术】使用Ollama+Dify搭建一个属于自己的知识库!支持多种文件类型,实现本地部署大模型,真的太好用了!
阿里的语音识别模型SenseVoice底层原理
注意力机制与输出预测(LLM:从零到一)【5】
大模型真的卷,面试了25家大模型岗,全靠这份文档才拿10个offer
《Reinforcement Learning》介绍