前 OpenAI 专家发出警示:AI 不会“吃一堑长一智”,AGI面临关键瓶颈

尽管当前的AI大模型在逻辑推理和任务处理上表现惊人,但一个长期被忽视的技术缺陷可能正成为通往通用人工智能(AGI)道路上的巨大障碍。近日,曾参与 OpenAI 推理模型 o1和 o3开发的核心研究员 Jerry Tworek 在受访时直言:目前的AI模型根本无法从错误中汲取教训。

Tworek 指出,当现有的AI模型在处理问题失败时,开发者往往会陷入一种无力感,因为目前还缺乏有效的机制让模型根据失败经验来更新其内在的知识体系或信念。他形容当前的AI训练过程本质上是“极其脆弱的”,一旦遇到训练模式之外的新挑战,模型就很容易陷入“推理崩溃”的困境,这与人类那种具备自我稳定和自我修复能力的鲁棒性学习方式形成了鲜明对比。

正是为了攻克这一难题,Tworek 已于近期离开 OpenAI,专注于寻找让AI能够自主解决困难、摆脱困境的技术路径。他强调,如果一个模型不能在面对挫折时自我进化,那么它就很难被称为真正的 AGI。在他看来,智能的本质应该像生命一样“总能找到出路”,而当前的AI显然还远未达到这种境界。

划重点:

🧠 核心缺陷:前 OpenAI 研究员 Jerry Tworek 指出当前AI模型缺乏从失败中学习的机制,无法像人类一样通过纠错来更新内部知识。
🚧 AGI障碍:模型在处理未知模式时的“脆弱性”和容易“卡死”的状态,被认为是实现通用人工智能(AGI)的主要技术壁垒。
🛠️ 专家动向:为解决这一根本性难题,o1系列模型的幕后功臣 Tworek 已离职并投身于研发能自主摆脱困境的新一代AI架构。

via AI新闻资讯 (author: AI Base)
 
 
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]