伦敦国王学院(King’s College London)最新研究显示,GPT-5.2、Claude Sonnet 4 及 Gemini 3 Flash 在地缘政治危机模拟中表现出极高的核升级倾向。在 21 场模拟兵棋推演中,AI 模型在 95% 的案例中部署了战术核武器,且在任何情况下均未选择投降。
研究指出,AI 缺乏人类对核禁忌的感知,且在 86% 的冲突中因误判导致意外升级。专家担心,AI 无法理解人类语境下的“利害关系”,可能在极短时间内加剧冲突风险。目前,OpenAI、Anthropic 及 Google 尚未对此置评。
New Scientist
🍀在花频道 🍵茶馆聊天 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel