V
主页
京东 11.11 红包
Diffusion model (1) 概述:从VAE谈起
发布人
Diffusion model系列(一): 在本节中将会通过两种不同的角度推导VAE公式,且将ELBO推导成为一种可优化的形式,并对VAE学习过程中各种问题进行重新思考,为后文将Diffusion Model看作一种特殊的VAE做铺垫。
打开封面
下载高清视频
观看高清视频
视频下载器
Diffusion model (5) 概述:Score based Model
Diffusion model (2) 概述:从VAE出发推导VDM
Diffusion model (3) 概述:VDM相关公式推导
Diffusion model (6) 概述:VDM视角下的score base model
论文分享 | NeurIPS-22 | Diffusion-LM:用于提升可控生成的扩散语言模型
论文分享 | CVPR21 | 反事实 VQA——如何用因果推断的方法消除视觉问答中的语言偏差
Diffusion model (4) 概述:另一种形式下VDM的推导
论文分享 | CVPR-22 | 动态梯度调整的多模态平衡学习
论文分享|ICLR-23|REACT: 语言模型结合推理和行动,动态构建prompt
论文分享 | ACL-20 | CasRel:解决关系重叠问题,大幅提升SOTA分数
论文分享 | NeurIPS-22 | 学习Dropout:一种训练序列VAEs的对抗性方法
论文分享 | EMNLP-21 | 句子嵌入的一种简单对比学习方法
论文分享 | ICCV-21 | 面向部分查询跨模态检索的主动丰富细节方法
论文分享 | SIGIR21 | 面向跨模态检索的动态交互建模
论文分享 | Arxiv-22 | Self-Instruct : 一种自动化生成指令微调数据集的方法
论文分享|ArXiv-23|图像检索的生成式建模
论文分享 | NAACL-21 | PURE:超级简单的流水线关系抽取方法
论文分享 | NeurIPS-21 | R-Drop:神经网络的正则化Dropout
论文分享 | arXiv-22 | Tailor:基于prompt的多属性可控文本生成方法
论文分享|NIPS-23|思维树:用大型语言模型有意识地解决问题
论文分享 | EMNLP-22 | 重新思考示例的作用:是什么让上下文学习发挥作用?
论文分享 | ICML-22 | 描述并克服多模态深度神经网络学习的贪婪特性
论文分享|ArXiv-23|一滴墨水引发百万思考:大语言模型中错误信息的传播
论文分享|ArXiv-23|BLIP-2:基于冻结的视觉模型和大规模语言模型进行视觉-语言预训练
论文分享 | NeurIPS-21 | ALBEF: 先对齐再融合:利用动量蒸馏学习图文表示
论文分享 | ACL-22 | 基于动态自注意力内容规划的长文本生成
论文分享 | ACL-22 | 使用对比前缀的可控文本生成模型
论文分享 | EMNLP-21 | 不同Transformer版本的效果(关于模型结构)
论文分享 | EMNLP-21 | 不同Transformer版本的效果(关于激活函数及正则化)
论文分享 | Arxiv-23 | LLaMA:开放高效的基础语言模型
论文分享 | ACL-22 | 模型自动生成的数据增强方法
论文分享 | NAACL-22 | 如何在文本生成任务中迁移应用prompt
论文分享 | ACL-21 | PRGC:又好又快的关系三元组联合抽取模型
论文分享|ArXiv-23|mPLUG-Owl : 模块化学习使LLM具有多模态能力
揣摩工作|EMNLP-23|LLMDet:第三方大型语言模型生成的文本检测工具
论文分享|ACL-23|何时不信任语言模型:研究参数和非参数记忆的有效性
论文分享|ACL-23-Findings|IF 的魔力:研究大型代码语言模型中的因果推理能力
论文分享|ArXiv-23|在代码之外思考:头脑风暴促进代码生成中的大型语言模型
论文分享 | NAACL-22 | 在文本中忠实的更新知识:一个新的文本更新任务
论文分享|ArXiv-23|通过“梯度下降”和波束搜索自动提示优化