V
主页
思想设计:破解复杂问题的关键
发布人
【加群】 一起来刷arxiv,请加vx: pwbot02(请备注:b站arxiv) 【彩蛋】 可以试试/ask + 你的提问和本篇论文进行交流 【论文标题】 Everything of Thoughts: Defying the Law of Penrose Triangle for Thought Generation 【论文简述】 最近,大型语言模型(LLMs)的最新进展通过将复杂问题拆解成更易处理的语言序列,即``思想'',彻底改变了决策制定的方式。一个有效的思想设计应考虑三个关键视角:性能、效率和灵活性。然而,现有的思想仅能展示其中两个属性。为了解决这些局限性,我们引入了一种新颖的思想引导方法,称为``Everything of Thoughts''(XoT),以打破现有思想范式中的``彭罗斯三角形''定律。XoT利用预训练强化学习和蒙特卡洛树搜索(MCTS)将外部领域知识融入思想中,从而增强LLMs的能力,使其能够高效地推广到未见过的问题。通过利用MCTS-LLM协同思想修订框架,该方法能够自主产生高质量的全面认知映射,并最小化LLM的交互作用。此外,XoT赋予LLMs进行无约束思考的能力,为具有多个解决方案的问题提供了灵活的认知映射。 【引导阅读的问题】 如何通过新的思想设计方法提升大型语言模型的性能、效率和灵活性? 【论文链接】 https://arxiv.org/pdf/2311.04254
打开封面
下载高清视频
观看高清视频
视频下载器
基于上下文调整的检索增强生成方法
大型语言模型在上下文学习中的可靠性提升:结合监督知识的方法
LLM Comparator: Visual Analytics for Side-by-Side Evaluation of Large Language M
闪电注意力-2:大型语言模型处理无限序列长度的高效方法
对比激活添加:精确操控大型语言模型行为的新方法
语言模型对齐新方法:基于对比不似然训练的判断反馈
语义压缩:扩展大型语言模型的上下文窗口
大型语言模型效率研究综述
FreeControl:实现任意文本到图像扩散模型的无训练空间控制
LLM360:推动全透明开源大型语言模型研究
图神经网络中的关键子图发现:不变性图变换器
ELLA: Equip Diffusion Models with LLM for Enhanced Semantic Alignment
大型语言模型:从训练到推理的全面综述
多任务学习中数据不平衡问题的优化策略:预训练与联合微调
从人类反馈中学习:纳什学习在大型语言模型中的应用
无需相机参数的3D高斯散射:COLMAP-Free 3DGS实现稳健的视角合成与姿态估计
TextGenSHAP:面向长文本的可扩展生成解释方法
基于潜在变量推断的训练链式思维提升语言模型推理能力
ShortGPT: Layers in Large Language Models are More Redundant Than You Expect
大型语言模型生成内容质量自评估提升选择性生成
分布式注意力机制:长文本处理的高效LLM服务系统
Vary: 大型视觉语言模型视觉词汇扩展新方法
DiffiT:基于扩散视觉Transformer的图像生成
Wonder3D: Single Image to 3D using Cross-Domain Diffusion
基于3D高斯展开的实时少样本视角合成
PromptBench:全面评估大型语言模型的统一框架
稳定分数蒸馏:高质量三维生成新方法
面向诚实的对齐:提升大型语言模型的知识边界意识
【EMNLP 2023 最佳长论文奖】揭示大型语言模型上下文学习机制:标签词作为锚点的信息流视角
FineControlNet:基于空间对齐文本控制注入的图像生成细粒度文本控制
深度学习现状与未来展望:专家视角与关键问题探讨
PALP: Prompt Aligned Personalization of Text-to-Image Models
DiffMorpher:释放扩散模型潜能实现平滑图像变形
Video-Bench: 全面评估视频大型语言模型的基准测试和工具包
基于LLM的输入输出安全保障模型:Llama Guard在人机对话中的应用
GARField: Group Anything with Radiance Fields
大型语言模型 (LLMs) 在应对需要任务规划和使用外部工具的任务时表现出了熟练的能力
大型语言模型潜在知识发现的挑战
LLaVA-Grounding:实现大型多模态模型的基于视觉的聊天
图神经网络何时预训练?从数据生成角度探讨