🤖 AI 治理的“不可能三角”:在安全与竞争中寻求监管平衡

自2022年底ChatGPT问世以来,全球掀起AI监管热潮,美、英、欧及亚洲多国相继成立安全机构。然而,随着生成式AI能力的加速演进,受经济增长压力、特朗普政府的去监管倾向以及美中技术竞争(如中国DeepSeek模型的崛起)影响,全球监管势头正面临停滞。文章指出,AI政策陷入了“国家安全、经济安全与社会安全”的“不可能三角”:追求军事与经济领先往往需牺牲社会安全(如放缓发布以识别风险);而优先社会安全则可能削弱商业竞争力和军事优势。

针对AI发展的“奇点”假说,即AI将实现自我进化并引发智能爆炸,文章认为这是一种误导。AI的扩张受到物理设施、电力供应、数据获取及人类制度约束等现实摩擦的限制,其演进将是渐进式的。因此,监管者应摒弃不切实际的幻想,将重点从无法实现的芯片出口禁令或全面禁止开源模型,转向更具操作性的政策。

为打破治理僵局,文章提出两项核心方案:首先是征收“风险税”,对AI开发投入征税,但允许公司通过安全研究投入获得税收抵免,以此激励私营实验室承担社会责任并支持学术研究。其次是建立国家数据存储库,由政府提供高价值的匿名化科学、医疗或经济数据供企业付费训练,所得收入用于资助AI标准与创新中心(CAISI)等监管机构。此外,应赋予监管机构类似食品药品监督管理局(FDA)的权力,在必要时否决危险模型的发布。

文章强调,尽管面临全球竞争压力,美国仍应率先规范其领先的闭源模型,通过确立行业安全基准来引导全球市场。这种国内治理体系的建立,将为未来达成类似《核不扩散条约》的国际AI治理框架奠定基础。政府必须在技术发展的关键期做出主动选择,以避免技术演进反向主导社会决策。

(foreignaffairs)

via 茶馆 - Telegram Channel
 
 
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]