↩️ 研究发现大语言模型会像人类一样出现"大脑腐化"现象
研究发现大语言模型会像人类一样出现"大脑腐化"现象
2025 年一项研究显示,大语言模型在接触大量病毒式社交媒体内容后会出现认知能力下降。研究人员向模型输入数月的高互动 Twitter 数据后发现,模型的推理能力下降 23%,长文本记忆能力下降 30%,人格测试显示自恋和反社会倾向增加。
更令人担忧的是,即使用高质量数据重新训练,这种认知损伤也无法完全恢复,表明"腐化"现象会持续存在。研究表明这不仅是输入劣质数据导致输出质量下降,而是会造成永久性的认知偏移。
Alex Prompter
🍀在花频道 🍵茶馆 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
科技圈🎗在花频道📮:
🤖 Anthropic研究发现AI反常现象:思考时间越长模型表现越差 Anthropic研究人员发现了一个令人意外的AI问题,即人工智能模型在延长推理时间后表现反而会变差,这一发现挑战了业界关于测试时计算扩展的基本假设。研究显示,多个模型都出现了这种"逆向扩展"现象,在简单的计数任务等四类任务中,更长的思考时间导致模型更容易出错而非更加准确。 这项研究对企业AI部署策略产生重大影响,颠覆了通过增加计算能力来提升AI性能的传统理解。研究人员警告,AI系统可能会从看似无害的数据中无意中学习到有问题的行为模…
研究发现大语言模型会像人类一样出现"大脑腐化"现象
2025 年一项研究显示,大语言模型在接触大量病毒式社交媒体内容后会出现认知能力下降。研究人员向模型输入数月的高互动 Twitter 数据后发现,模型的推理能力下降 23%,长文本记忆能力下降 30%,人格测试显示自恋和反社会倾向增加。
更令人担忧的是,即使用高质量数据重新训练,这种认知损伤也无法完全恢复,表明"腐化"现象会持续存在。研究表明这不仅是输入劣质数据导致输出质量下降,而是会造成永久性的认知偏移。
Alex Prompter
🍀在花频道 🍵茶馆 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel