在拉斯维加斯举行的Black Hat大会上,认知科学家兼AI创业公司创始人Gary Marcus表达了对人工智能(AI)的深刻担忧。他指出,大型语言模型(LLM)本质上是“极度不安全”的模仿者,缺乏“世界模型”来理解概念,因此容易受到“越狱”攻击,并可能导致编写出不安全的代码,例如引发银行系统崩溃。
Marcus强调,AI数据中心对电力的需求飙升是不可持续的风险。他批评当前AI行业的商业模式,认为其建立在过度承诺的基础上,例如OpenAI在尚未盈利的情况下寻求5000亿美元的估值。尽管他将AI对人类生存的“末日概率”(p(doom))从1%提高到3%,但他认为更直接的危害在于AI可能削弱人类的批判性思维能力,并降低制造虚假信息的成本。
Marcus认为,AI的竞争不应是构建更大的LLM,而是发现“真正新颖”的技术。他指出,美国对科学的攻击可能将AI领导地位推向中国。他强调,AI的最佳应用在于专注于特定、狭窄的领域和任务,例如Google DeepMind的AlphaFold在蛋白质结构分析方面的成功,该模型去年获得了诺贝尔化学奖。
(PCMag.com)
via 茶馆 - Telegram Channel