V
主页
利用数据中心方法提升大型语言模型在金融领域的应用
发布人
彩蛋:可以试试/ask + 你的提问和本篇论文进行交流 论文简述:本文提出了一种数据中心方法,以提升大型语言模型(LLM)在复杂领域(如金融)的应用。该方法的关键见解是,与一次性加载所有信息相比,预处理和预先理解数据更有效。通过多任务基于提示的微调,我们创建了一个金融LLM(FLLM),以实现数据预处理和预理解。但是,每个任务的标记数据都很稀缺。为了克服手动注释的成本,我们采用推理自动增强(AAR)来自动生成训练数据,通过修改FLLM自身输出的伪标签。实验表明,我们的数据中心FLLM与AAR显着优于基线金融LLM,在金融分析和解释任务上实现了最新技术。我们还开源了一个新的金融分析和解释基准。我们的方法为解锁LLM在复杂实际领域的潜力提供了一条有希望的道路。 引导阅读的问题:1. LLM在复杂领域(如金融)的应用有哪些困难?2. 我们提出了什么样的数据中心方法?3. 如何利用推理自动增强(AAR)来自动生成训练数据? 论文链接: https://arxiv.org/pdf/2310.17784
打开封面
下载高清视频
观看高清视频
视频下载器
PromptBench:全面评估大型语言模型的统一框架
基于上下文调整的检索增强生成方法
对比激活添加:精确操控大型语言模型行为的新方法
探索大型语言模型在工业芯片设计中的应用
LoRAShear:一种有效的大型语言模型结构压缩方法
大规模语言模型在多模态音乐理解与生成中的应用
基于语言模型的知识探测和推理方法
利用FP8低位数据格式高效地训练大型语言模型
大型语言模型生成内容质量自评估提升选择性生成
从人类反馈中学习:纳什学习在大型语言模型中的应用
面向大型语言模型的有约束文本生成方法
基于认知树的小型语言模型推理能力提升
个性化的大型语言模型写作助手PEARL
斑马模型:通过分层分组的局部-全局注意力提升语言模型的长文本处理能力
语义压缩:扩展大型语言模型的上下文窗口
融合像素与潜在扩散模型的文本到视频生成方法
基于双语文本的Skywork-13B大型语言模型研究
语言模型对齐新方法:基于对比不似然训练的判断反馈
分布式大型语言模型的互联网低成本推理与微调
Paper Reading Group基于知识增强的语言表示模型
闪电注意力-2:大型语言模型处理无限序列长度的高效方法
大型语言模型在代码生成基准测试中表现出良好性能
基于个性化教学原理的关闭源LLMs模型蒸馏方法
基于生成式强化学习的指令上下文增强模型:ICE-GRT
大型语言模型潜在知识发现的挑战
TextGenSHAP:面向长文本的可扩展生成解释方法
MusicAgent: An AI Agent for Music Understanding and Generation with Large Langua
大规模语言模型在科学中的应用:P vs. NP问题的研究
【EMNLP 2023 最佳长论文奖】揭示大型语言模型上下文学习机制:标签词作为锚点的信息流视角
GridFormer 表结构识别方法
【AI Drive】ACL 2021:利用对比学习增强预训练语言模型的实体与实体间关系理解
大型语言模型在链式思维推理中的应用
大型语言模型在上下文学习中的可靠性提升:结合监督知识的方法
基于LLM的输入输出安全保障模型:Llama Guard在人机对话中的应用
大型语言模型:从训练到推理的全面综述
大型语言模型如何从网络上的信息中辨别真假?
大型语言模型效率研究综述
蜜蜜蜂:一种局部增强的多模态大型语言模型投影器
生成高质量的长视频:SEINE视频扩散模型
利用Atom低位量化技术提升大型语言模型服务吞吐量