V
主页
GPT回答推理就像史努比铺铁轨【3】
发布人
#关于视频 如果你对大语言模型感兴趣但一开始对其一无所知、并非相关专业,也没有机器学习的基础,很难去摸索该如何开始。该怎么办?虽然网上有很多教学视频,然而,挑战在于所讲述概念常常对初学者不够清晰(大部份默认你有机器学习的基础)。而我的这个学习路径将引导你了解人工智能和机器学习的逻辑与常识, 然后帮助你构建自己的大型语言模型。 #关于我 连续创业者。2003年至2007年多伦多大学学习计算机科学。 网站:https://waylandzhang.github.io
打开封面
下载高清视频
观看高清视频
视频下载器
谁都能听懂的Transformer【5】
模型与人眼看待图像的区别
阿里的语音识别模型SenseVoice底层原理
闲聊:Transformer中反向传播+参数权重更新的代码片段演示~
QKV里的Q啥被叫做Query? #大模型 #transformer
Multi-Head Attention的QKV是什么【12】
【18】大模型推理vs.训练的相同与不同
面了几个大模型开发新人发现,水平竟然这样,没准备好真的不要来浪费面试机会了
GPT发展简史【1】
训练GPT大模型需要花多少钱?【2】
清晰说明——什么是大语言模型(LLM:从零到一)【1】
用好玩的python库ic()来打印大模型参数
五分钟秒懂层归一化
彻底理解Transformer概念(LLM:从零到一)【3】
如何训练一个写小说的大模型?
DDPM的从零实现与原理讲解
B站讲的最好的AI大模型实战(2024最新版)LLM+RAG系统+GPT-4o+OpenAI,全部都讲明白了!!
如何理解#transformer中的学习率?
如何理解学习率
浅谈模型超参数的设计原理
变分自编码器的从零实现与数学原理
100万Token窗口长度的大模型背后实现技术原理
KAN vs. MLP架构的简单解读
Transformer里词嵌入+位置信息的深层逻辑
反向传播+参数更新代码演示
Tokenization文字转数字【6】
【全网最细】逼自己一周吃透AI大模型(LLM+RAG系统+GPT-4o+OpenAI)通俗易懂,2024最新版,学完即就业!!
GPT大语言模型微调原理
高度概括聊聊看Transformer都在做什么
【7】手写大模型代码(中)( LLM:从零到一)
Attention Visualization 注意力权重矩阵可视化
大模型实际上就是两个文件【4】
解决大模型幻觉《OPERA - Alleviating Hallucination》论文导读
1.1章-背景介绍(闲侃较多)
《强化学习》第4.1-4.3章 策略更新规则(上)
大语言模型的训练原理(LLM:从零到一)【2】
Nemotron技术拆解
先跟我一起过概念(上)【8】
手撕 Stable Diffusion
AlphaFold 3 模型架构