来自北京大学的研究团队及其合作者提出了一种新颖、通用的思维增强推理方法——Buffer of Thoughts(BoT),其可以提高大型语言模型(LLM)的准确性、效率和健壮性。
具体来说,团体提出了 meta-buffer的概念,用于存储从各种任务的问题解决过程中提炼出的一系列信息丰富的高层次思维,即 thought-template。然后,针对每个问题,他们检索相关的 thought-template,并用特定的推理结构对其进行适应性实例化,以进行高效推理。为了保证可扩展性和稳定性,他们进一步提出了 buffer-manager 来动态更新 meta-buffer,从而在解决更多任务时提高 meta-buffer 的容量。
他们在 10 个具有挑战性的推理密集型任务上进行了广泛的实验,与之前的 SOTA 方法相比,取得了显著的性能提升。进一步的分析表明,BoT 具备卓越的泛化能力和模型健壮性,而所需的成本平均仅为多重查询提示方法(如思维树/思维图)的 12%。值得注意的是,Llama3-8B+BoT 有可能超越 Llama3-70B 模型。
智源社区
关注频道 @ZaiHuaPd
频道爆料 @ZaiHuabot
via 软件新闻频道📮投稿爆料 - Telegram Channel