V
主页
Understanding Contrastive Loss(对比损失函数的理解)
发布人
打开封面
下载高清视频
观看高清视频
视频下载器
Contrastive Learning(对比学习详解)
Transformer的PyTorch实现
从 loss 的硬截断、软化到 Focal Loss
概率图模型详解
Attention必须要用Softmax吗?
Transformer 位置编码追根溯源
突破瓶颈,打造更强大的 Transformer
Sentence-BERT详解
我们还不够了解自注意力(Synthesizer)
Word2Vec的PyTorch实现
Prompt Learning(提示/模板学习)
寻求一个光滑的最大值函数
使用huggingface预训练模型解决80%的nlp问题
我们真的需要把训练集的损失降到零吗?
GNN、GCN、GraphSAGE、PinSAGE详解
Neural Network Language Model PyTorch实现
seq2seq的PyTorch实现
Seq2Seq(attention)的PyTorch实现
TextCNN的PyTorch实现
Vision Transformer (ViT) 用于图片分类
Sparse Softmax
博采众长式的旋转位置编码
文本向量序列相似度
Longformer详解
Selenium+Github Actions实现网站自动签到
三种 Cross-lingual 模型 (XLM, XLM-R, mBART) 详解
Sentence-Transformer使用
CAN-借助数据分布提升分类性能
Seq2Seq重复解码问题追根溯源
最强的数据扩增方法竟然是添加标点符号?
TextRNN的PyTorch实现
Tacotron2原理+代码详解
hacktoberfest2021活动讲解
电梯里说了句“Excuse me”为何会激怒老外?这坑一定要避!
这才是科研人该学的【Opencv+Pytorch】教程!一口气学完目标检测、图像分割、语义分割、图像生成,算法原理+实验分析,太通俗易懂了!机器学习|深度学习
BERT and its family
近来总结
Transformer真的不难啊!100集带你逐层分解Transformer模型——注意力机制、神经网络、位置编码、编码器、解码器等!算法原理+实战,通俗易懂!
LLD: 内部数据指导的标签去噪方法
计算机界四大宗师!这些才是计算机专业大学四年最该学的几门课程! 门门都是YYDS!