Sakana AI 让多模型团队合作使性能提升 30%
日本AI实验室Sakana AI推出一项新技术,允许多个大型语言模型在单个任务上合作,有效创建AI智能体的“梦之队”。该方法称为Multi-LLM AB-MCTS,使模型能够执行试错,并结合各自的独特优势来解决任何单个模型都无法解决的复杂问题。该团队使用包括o4-mini、Gemini 2.5 Pro和DeepSeek-R1在内的前沿模型组合,在ARC-AGI-2基准测试中,该模型集体能够为超过30%的测试问题找到正确的解决方案,这一分数明显优于任何单独工作的模型。Sakana AI 还发布名为TreeQuest的开源框架,该框架提供了一个灵活的API,允许用户为自己的任务实施Multi-LLM AB-MCTS,并具有自定义评分和逻辑。
—— VentureBeat
via 风向旗参考快讯 - Telegram Channel
日本AI实验室Sakana AI推出一项新技术,允许多个大型语言模型在单个任务上合作,有效创建AI智能体的“梦之队”。该方法称为Multi-LLM AB-MCTS,使模型能够执行试错,并结合各自的独特优势来解决任何单个模型都无法解决的复杂问题。该团队使用包括o4-mini、Gemini 2.5 Pro和DeepSeek-R1在内的前沿模型组合,在ARC-AGI-2基准测试中,该模型集体能够为超过30%的测试问题找到正确的解决方案,这一分数明显优于任何单独工作的模型。Sakana AI 还发布名为TreeQuest的开源框架,该框架提供了一个灵活的API,允许用户为自己的任务实施Multi-LLM AB-MCTS,并具有自定义评分和逻辑。
—— VentureBeat
via 风向旗参考快讯 - Telegram Channel