V
主页
徒手写LSTM(第一部分)
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
徒手实现长短期记忆网络--LSTM的结构与代码
40岁之前达到年收入130万之上的几种典型模式(2)
batch normalization的来龙去脉,以及为何要加shift和scale参数
徒手写LSTM(第二部分)
徒手写CNN (imaging classification)
交叉注意力机制
只能学但不能教的知识到底是啥?
KL散度:一看就懂的完整指南
高考结果不理想,还要继续复读吗?
Transformer中的位置编码python实现
面对懊悔的三种办法
Transformer关键组件:Add&Norm的Python算法实现
如何将KL散度转化成MLE
理解LSTM神经网络
tiktok面试题:手写Transformer
【官方双语】一个视频理解交叉熵 Cross Entropy
为何LSTM可以缓解RNN的梯度问题:直观理解以及公式推导
Transformer组件:LayerNorm的Python算法实现
为什么算不明白也看不清,依然要继续前进?
Introduction to autoencoders
能让自己快速行动起来的简单方法
徒手写循环神经网络(RNN)
🧠其实非常喜欢deadline:大脑正确使用指南(2)
下决心不在于那一刻的决心有多坚决
“无效见世面”能有多快乐
3分钟带你搞清LSTM 的计算过程和计算图
从编解码和词嵌入开始,一步一步理解Transformer,注意力机制(Attention)的本质是卷积神经网络(CNN)
20岁到60岁的大脑使用完全指南
你是听觉系还是视觉系?
您不能放弃,您得继续写,我永远期待在互联网读到您的文字!
多头注意力的Python算法实现
【官方双语】LSTM(长短期记忆神经网络)最简单清晰的解释来了!
手写Transformer(续):掩码设置&训练全过程
从古希腊到秘密花园:最近看的一些书推荐
久旱逢甘霖系列10--如何获取高质量信息&优质信息源及对日常信息分类
如何安排一个高效学习计划
985学长锐评计算机、人工智能行业。全世界卷王逼你卷,知识保质期太短,35岁就业难。卷王让你承认你以前学的东西是垃圾。软件更新后即时是屎山代码,你也要含泪吃下。
【深度学习基本功!启动!】带你手敲Transformer代码之-Embedding篇!-神经网络/pytorch深度学习