https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
↩️ 美国国防部拟终止与 Anthropic 合作,因 AI 军事用途限制产生分歧


科技圈🎗在花频道📮:

美军在抓捕马杜罗行动中使用 Claude 模型,或导致 2 亿美元合同面临取消 美国国防部在 2026 年 1 月抓捕委内瑞拉前总统马杜罗(Nicolás Maduro)的行动中,使用了 Anthropic 开发的 AI 模型 Claude,开展对加拉加斯多处的轰炸任务。据知情人士透露,该模型通过 Palantir 的平台部署,系五角大楼首次将 AI 模型用于机密军事行动。 值得注意的是,Anthropic 的使用条款明确禁止使用 Claude 进行暴力或武器开发。目前,由于在军事用途限制上存在分歧,美政府正考虑取消与…

美国国防部拟终止与 Anthropic 合作,因 AI 军事用途限制产生分歧

美国国防部正考虑终止与 AI 公司 Anthropic 的合作,主因是双方在模型使用权限上存在严重分歧。Anthropic 坚持禁止将 Claude 模型用于大规模监控及全自动武器系统,而国防部要求获得包括武器研发和战场行动在内的“所有合法用途”授权。

此前,Claude 在抓捕委内瑞拉领导人马杜罗的军事行动中被使用,引发公司对技术涉及实战打击的疑虑。尽管 OpenAI 和 Google 等竞争对手已同意放宽限制,但国防部承认,Anthropic 在政府专用领域的技术领先地位使其短期内难以被完全取代。

Axios

🍀在花频道 🍵茶馆聊天 📮投稿

via 科技圈🎗在花频道📮 - Telegram Channel
🛡️ 美国国防部因AI使用限制争议考虑终止与Anthropic合作

据Axios援引一名政府官员的消息报道,美国国防部正考虑切断与人工智能公司Anthropic的合作关系。双方的争议焦点在于AI模型的使用限制:Anthropic坚持要求对其模型在军事用途中的应用保留部分限制措施,而五角大楼对此表示异议。目前,路透社尚无法独立核实该报道的准确性。

(路透社)

via 茶馆 - Telegram Channel
🛡️ 新闻出版商限制“互联网档案馆”访问以应对 AI 抓取威胁

近日,包括《金融时报》、《卫报》和《纽约时报》在内的多家主流新闻出版商开始限制“互联网档案馆”(Internet Archive)及其“时光机”(Wayback Machine)的访问。此举核心旨在应对 AI 公司的大规模数据抓取行为。出版商认为,OpenAI、Anthropic 和 Perplexity 等 AI 机构正利用第三方存档绕过付费墙,无偿获取高质量新闻数据用于模型训练,这严重损害了媒体的订阅收入和商业模式。

互联网档案馆创始人 Brewster Kahle 对此警告称,出版商限制图书馆式的存档行为将导致公众失去对历史记录的访问权。目前,约 20% 的大型新闻网站已采取屏蔽措施。这一趋势引发了多重连锁反应:首先,公众难以追踪新闻机构的“静默修改”或撤稿行为,削弱了媒体的透明度与问责机制;其次,部分依赖稳定 URL 进行合规审计(如 SOC 2 或 HIPAA 认证)的企业面临证据链断裂的风险,因为历史网页已无法调取。

技术对抗也在升级。由于 AI 公司开始利用住宅代理(Residential Proxies)伪装成普通用户进行抓取,出版商不得不承受更高的服务器负载和反爬虫成本。部分地方媒体(如 RedBankGreen)反映,AI 抓取导致网站直接访问量和广告收入骤减。针对这一困局,业界提出了多种潜在方案,包括设立为期一年的存档锁定期、建立仅供学术研究的私有档案馆,或通过政府资助建立非营利性的公共搜索与存档基础设施,以平衡版权保护与人类文化遗产的长期保存。

(HackerNews)

via 茶馆 - Telegram Channel
OpenAI 再次表示 DeepSeek 利用蒸馏训练其模型

2026-02-14 22:16 by 丽赛的故事

根据 OpenAI 本周四递交到美国众议院中国事务特别委员会的备忘录,它再次警告中国竞争对手 DeepSeek 利用蒸馏技术训练其模型。所谓蒸馏就是一个 AI 模型利用另一个模型的输出进行训练。OpenAI 称 DeepSeek 在一直搭其技术的便车。去年初 DeepSeek 发布 R1 模型后,OpenAI 就发表过类似的评论。

https://slashdot.org/story/26/02/13/1630235/openai-claims-deepseek-distilled-us-models-to-gain-an-edge

#人工智能

via Solidot - Telegram Channel
码上过年!来沸点晒出你的技术er年味

掘友们,新年好!

无论你已踏上归途,开启温馨「团圆副本」,还是坚守岗位,进入硬核「值班闯关」模式,这个春节,稀土掘金陪每一位技术人一起过年。

我们邀请你用文字、代码、照片,记录属于程序员的独特春节瞬间,让技术与年味撞个满怀。

一、活动时间

活动参与期:2026年2月12日 — 2026 年 2 月 23 日 23:59
数据统计截止:2026 年 2 月 23 日 23:59
名单公示:活动结束后 7 个工作日内,在掘金酱公布

二、参与方式

在掘金发布沸点,带上话题: #寻找年味

三、分享内容方向

不限形式、不限风格,只要是「技术人的春节」,都值得被记录:

家乡年味、团圆时刻、新春趣事
工位日常、值班片段、代码灵感
节日小脚本、AI 整活、技术向新春祝福
任何专属于程序员的过年瞬间

四、活动福利

新春福利,重磅解锁:

常规内容赛道:互动量 + 评审团综合打分,TOP10赢 SZCOOL 无线蓝牙音箱

AI 内容赛道:互动量 + 评审团综合打分,TOP10 拿下「窝在一起」瓦楞猫窝

阳光普照奖:凡是符合#寻找年味主题的且有互动(排除作者自己点赞和评论)的沸点内容皆可获得10w 矿石

五、获奖规则

1. 参赛沸点互动量按「点赞数 + 评论数」总和核算;
2. 同一用户发布多条内容,仅取数据最优一条参与排名获奖;
3. 无意义水评论、刷赞等违规行为,剔除获奖资格;
4. 数据统计截止至 2026 年 2 月 23 日 23:59,逾期新增互动不计入;
5. 禁止引战/制造冲突/谩骂内容,或者发现引战内容剔除获奖资格;
6. 评审团会依据沸点内容质量进行打分排序;
7. 非AI相关内容都归类为常规内容赛道,两个赛道不重复获奖,阳光普照奖可叠加赛道获奖;
8. 活动最终解释权归稀土掘金所有;

六、写在最后

代码不停,年味常在。这个春节,不用刻意迎合,只需真实记录。

你的工位、你的代码、你的年夜饭、你的团圆时刻,你的AI学习记录等等都是技术人最动人的新年风景。

欢迎每一位掘友踊跃参与,让我们在沸点相遇,互相陪伴,一起过个有温度、有技术的春节!

快带 寻找年味话题发布你的新春第一条沸点吧!

via 掘金人工智能本月最热 (author: 掘金酱)
OpenAI删除AI安全造福人类承诺

曾几何时谷歌的不作恶承诺成为美国公司的道德楷模,国内也有很多人因此崇拜谷歌,然而谷歌后面删除了这个承诺,现在OpenAI也来了这么一出,删除了AI的安全承诺。OpenAI的成立初衷是为了研发出造福人类、非营利性的AGI,然而最近几年OpenAI不仅技术上封闭,还在道德承诺上不断后退,甚至连创始人之一的马斯克都因此打起了法律官司。

现在OpenAI又被发现了新的问题,那就是之前承诺的AI安全也倒退了,该公司2023年的宣言中还提到其使命是“构建能够安全造福人类、不受产生财务回报需求限制的通用人工智能(AI)。”

然而OpenAI去年底向美国提交的税务文件中就改变了这个承诺,变成了“确保通用人工智能使全人类受益。”

虽然意思差别不大,但最新的承诺中不再提及安全,同时还删除了其对“不受营利需求约束”的承诺,也就是说OpenAI现在不会因为AI安全性受到限制,并且会考虑营利性,这跟他们的初衷显然越来越远。

这也可以理解最近该公司解散了使命对齐团队的原因了,其中一个被解职的女性高管还爆料称OpenAI为了讨好部分用户,允许开放成人内容(注:马斯克的xAI在这方面更开放了,所以马斯克倒是没指责过这一点)。

更有意思的是,OpenAI为了反击这个指责,称这个女性高管对男性充满歧视,两边的口水战让人很难崩。

OpenAI删除安全造福人类的承诺,不代表现在他们的AI就完全不考虑安全,甚至危害人类,但是一步步放低道德承诺,加强对营利性的追求,显然OpenAI未来的进攻性越来越强,而且GPT中增加广告也会引发对用户隐私的担忧,因为AI可能掌握了很多人的核心隐私,这些科技巨头难免不在这方面动心思。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:快科技)
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]