司法部反击 Anthropic 诉讼:Claude AI 不应被信任用于战争系统

美国司法部在近期的一份法庭文件中对 AI 初创公司 Anthropic 的诉讼作出了严厉回应。政府方面坚称,将该公司标记为“供应链风险”并未侵犯其第一修正案权利,并预测 Anthropic 的诉讼最终将以失败告终。

这场纷争源于 Anthropic 试图限制其 Claude 模型在军 事领域的用途。对此,政府采取了强硬立场:

● 合规惩罚:政府辩称,由于 Anthropic 试图限制军方使用其 AI 模型的方式,政府依法将其列为风险对象是正当的。
● 安全信任危机:司法部直言不讳地指出,鉴于 Anthropic 在军 事合同谈判中表现出的限制性态度,该公司无法在作战系统中获得信任。

特朗普政府此前已发布命令,计划将 Anthropic 排除在政府供应商名单之外。这一举动在行业内引发了剧烈震荡:

● 数十亿损失风险:Anthropic 高层警告,被贴上“供应链风险”标签已导致多家合作伙伴暂停合作,潜在损失可能高达数十亿美元。
● 同行声援:包括 Google DeepMind 首席科学家 Jeff Dean 在内的多名来自 OpenAI 和谷歌的员工已提交法律文书,支持 Anthropic 反抗政府禁令。

Anthropic 一直以“AI 安全”为核心标签,拒绝将其技术用于自主武器或政府监控。然而,这种坚持正使其面临被踢出价值不菲的军 事合同市场的困境。与此同时,竞争对手如微软旗下的 OpenAI 技术已被证实正在接受五角大楼的测试,尽管其此前也曾有过类似的限制条款。

via AI新闻资讯 (author: AI Base)
 
 
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]