V
主页
京东 11.11 红包
论文分享|Arxiv-23|REPLUG:检索增强黑盒语言模型
发布人
论文名称:REPLUG: Retrieval-Augmented Black-Box Language Models 论文链接:https://arxiv.org/pdf/2301.12652.pdf 在本文中介绍了一个在大语言模型(LLM)背景下可以应用的检索增强语言模型范式REPLUG。与之前检索增强语言模型范式不同,其主要思想是通过训练检索器以适配现在的LLM,从而让检索器找到可以帮助LLM生成困惑度更低的答案。
打开封面
下载高清视频
观看高清视频
视频下载器
论文分享 | Arxiv-23 | LLaMA:开放高效的基础语言模型
论文分享|ArXiv-23|DetectGPT:利用概率曲率的零样本机器生成文本检测
论文分享 | SIGIR21 | 面向跨模态检索的动态交互建模
论文分享|ArXiv-23|图像检索的生成式建模
论文分享|ArXiv-23|通过多智能体辩论鼓励大型语言模型中的发散思维
论文分享 |Arxiv-23|HuggingGPT:语言模型ChatGPT作为智慧大脑,控制各AI模型
论文分享 | SIGIR21 | 利用负样本来优化稠密检索模型
论文分享|ICLR-23|知识在上下文中:走向知识化的半参数语言模型
论文分享 | NeurIPS21 | BEIR: 用于检测检索模型零样本学习能力的基准
论文分享 | ACL-22 | 模型自动生成的数据增强方法
论文分享 | ACL-22 | Mix&Match:使用能量语言模型的无需训练的可控文本生成方法
论文分享|ArXiv-23|BLIP-2:基于冻结的视觉模型和大规模语言模型进行视觉-语言预训练
揣摩工作|ArXiv-23|链中搜索:迈向准确,可信,可溯源的大语言模型
论文分享 | NeurIPS-22 | Diffusion-LM:用于提升可控生成的扩散语言模型
论文分享 | SIGIR-22 | 面向视频检索的模态平衡表示
论文分享 | ICCV-21 | 面向部分查询跨模态检索的主动丰富细节方法
论文分享 | ACL-22 | 文本样本增强还能这样做?基于虚拟表示增强的对比学习
论文分享 | ACL-20 | CasRel:解决关系重叠问题,大幅提升SOTA分数
论文分享 | CVPR21 | 反事实 VQA——如何用因果推断的方法消除视觉问答中的语言偏差
论文分享 | EMNLP-21 | 不同Transformer版本的效果(关于模型结构)
论文分享 | ACL-21 | 信息搜寻型问答的挑战:可回答性预测和段落检索
论文分享 | ACL-22 | 用于开放域稠密向量检索的文档多角度表示学习
论文分享 | ACL-22 | Prompt可以探测预训练的语言模型吗?从因果关系看隐形风险
论文分享 | ACL21 | 利用加权的词袋进行大规模的文本到图像的检索
论文分享 | NIPS-22 | RETROPROMPT: 一种利用检索机制来解耦训练数据中的知识与记忆从而增强prompt learning泛化能力的方式
论文分享 | EMNLP-21 | 稠密检索居然没法解决以实体为中心的简单问题?
论文分享|ArXiv-23|mPLUG-Owl : 模块化学习使LLM具有多模态能力
论文分享 | DeepMind | 用超级大的数据库也可以比过超级大的预训练语言模型-大参数不是唯一选择
论文分享|ArXiv-23|在代码之外思考:头脑风暴促进代码生成中的大型语言模型
论文分享|NIPS-23|思维树:用大型语言模型有意识地解决问题
论文分享 | ACL-21 | PRGC:又好又快的关系三元组联合抽取模型
论文分享|ArXiv-23|SWIFTSAGE: 针对复杂交互任务具有快速和慢速思考的生成式智能体
论文分享 | ACL-22 | “开卷有益”同样适用于AI做题家:一种预测时利用训练集检索的简单方法
论文分享 | arXiv-21 | 利用虚拟交互优化基于表示的文本匹配模型
论文分享 | ICLR-22 | 面向稠密检索的对抗检索-排序训练
论文分享|ACL-23-Findings|IF 的魔力:研究大型代码语言模型中的因果推理能力
Diffusion model (4) 概述:另一种形式下VDM的推导
论文分享 | ACL-20 | FLAT:又快又好的中文实体识别模型
论文分享 | ACM MM-21 | CONQUER: 基于上下文查询的视频语料库时刻检索排序方法
论文分享 | ACL-22 | 使用对比前缀的可控文本生成模型