V
主页
大型语言模型 (LLMs) 在应对需要任务规划和使用外部工具的任务时表现出了熟练的能力
发布人
【加群】 一起来刷arxiv,请加vx: pwbot02(请备注:b站arxiv) 【彩蛋】 可以试试/ask + 你的提问和本篇论文进行交流 【论文标题】 TPTU-v2: Boosting Task Planning and Tool Usage of Large Language Model-based Agents in Real-world Systems 【论文简述】 这篇论文介绍了一种全面框架,旨在增强基于LLMs的代理程序在实际系统中的任务规划和工具使用能力。该框架包括三个关键组件,分别是API检索器、LLM微调器和演示选择器。通过一个真实世界的商业系统和一个开源的学术数据集的验证,结果清楚地展示了每个组件以及整个集成框架的有效性。 【引导阅读的问题】 如何提高基于LLMs的代理程序在实际系统中的任务规划和工具使用能力? 【论文链接】 https://arxiv.org/pdf/2311.11315
打开封面
下载高清视频
观看高清视频
视频下载器
PromptBench:全面评估大型语言模型的统一框架
对比激活添加:精确操控大型语言模型行为的新方法
基于上下文调整的检索增强生成方法
利用数据中心方法提升大型语言模型在金融领域的应用
基于认知树的小型语言模型推理能力提升
斑马模型:通过分层分组的局部-全局注意力提升语言模型的长文本处理能力
基于个性化教学原理的关闭源LLMs模型蒸馏方法
个性化的大型语言模型写作助手PEARL
探索大型语言模型在工业芯片设计中的应用
分布式大型语言模型的互联网低成本推理与微调
基于多模态工具的大型语言模型控制系统ControlLLM
大型语言模型在代码生成基准测试中表现出良好性能
语义压缩:扩展大型语言模型的上下文窗口
基于生成式强化学习的指令上下文增强模型:ICE-GRT
Paper Reading Group基于知识增强的语言表示模型
LoRAShear:一种有效的大型语言模型结构压缩方法
基于双语文本的Skywork-13B大型语言模型研究
大型语言模型生成内容质量自评估提升选择性生成
重新定义LLM量化:一种面向生成任务的全新FP6中心策略
语言模型对齐新方法:基于对比不似然训练的判断反馈
大型语言模型潜在知识发现的挑战
基于LLM的输入输出安全保障模型:Llama Guard在人机对话中的应用
闪电注意力-2:大型语言模型处理无限序列长度的高效方法
【EMNLP 2023 最佳长论文奖】揭示大型语言模型上下文学习机制:标签词作为锚点的信息流视角
TextGenSHAP:面向长文本的可扩展生成解释方法
面向大型语言模型的有约束文本生成方法
MusicAgent: An AI Agent for Music Understanding and Generation with Large Langua
基于语言、任务和指标的人工智能模型的一致性分析
基于语言模型的知识探测和推理方法
从人类反馈中学习:纳什学习在大型语言模型中的应用
利用FP8低位数据格式高效地训练大型语言模型
蜜蜜蜂:一种局部增强的多模态大型语言模型投影器
大型语言模型在上下文学习中的可靠性提升:结合监督知识的方法
生成高质量的长视频:SEINE视频扩散模型
大规模语言模型在多模态音乐理解与生成中的应用
LLAMA PRO:基于Transformer块扩展的渐进式大型语言模型
大型语言模型:从训练到推理的全面综述
GPT-4V在视觉问答任务中的能力评估
【AI Drive】ACL 2021:利用对比学习增强预训练语言模型的实体与实体间关系理解
Interactive Task Planning with Language Models