https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
Elevated errors on Claude Opus 4.6
Feb 25, 19:15 UTC
Investigating - We are currently investigating this issue.
via Claude Status - Incident History
Feb 25, 19:15 UTC
Investigating - We are currently investigating this issue.
via Claude Status - Incident History
Elevated error rates across multiple models
Feb 25, 17:21 UTC
Update - We are continuing to investigate this issue.
Feb 25, 17:21 UTC
Update - We are continuing to investigate this issue.
Feb 25, 17:15 UTC
Investigating - We are currently investigating this issue.
via Claude Status - Incident History
Feb 25, 17:21 UTC
Update - We are continuing to investigate this issue.
Feb 25, 17:21 UTC
Update - We are continuing to investigate this issue.
Feb 25, 17:15 UTC
Investigating - We are currently investigating this issue.
via Claude Status - Incident History
黑客利用 Claude 窃取墨西哥政府敏感数据
网安研究人员称,一名黑客利用 Anthropic PBC 的人工智能聊天机器人,对墨西哥政府机构实施了一系列攻击,导致大量敏感的税务和选民信息被盗。以色列网络安全初创公司Gambit Security在周三发布的研究报告中表示,这位身份不明的Claude用户编写了西班牙语提示,让该聊天机器人充当一名精英黑客,寻找政府网络中的漏洞,编写计算机程序来利用这些漏洞,并确定自动化数据窃取的方法。这一活动始于去年12月,持续了大约一个月。据研究人员称,总共被盗取了150GB的墨西哥政府数据,其中包括与1.95亿条纳税人记录相关的文件,以及选民记录、政府雇员凭证和民事登记档案。
—— 彭博社
via 风向旗参考快讯 - Telegram Channel
网安研究人员称,一名黑客利用 Anthropic PBC 的人工智能聊天机器人,对墨西哥政府机构实施了一系列攻击,导致大量敏感的税务和选民信息被盗。以色列网络安全初创公司Gambit Security在周三发布的研究报告中表示,这位身份不明的Claude用户编写了西班牙语提示,让该聊天机器人充当一名精英黑客,寻找政府网络中的漏洞,编写计算机程序来利用这些漏洞,并确定自动化数据窃取的方法。这一活动始于去年12月,持续了大约一个月。据研究人员称,总共被盗取了150GB的墨西哥政府数据,其中包括与1.95亿条纳税人记录相关的文件,以及选民记录、政府雇员凭证和民事登记档案。
—— 彭博社
via 风向旗参考快讯 - Telegram Channel
多年来一直以相较同行更为注重人工智能安全性的Anthropic PBC,如今已放松了对其“安全护栏”的承诺。这是AI行业迄今最具戏剧性的政策转向之一,也折射出一批曾经专注于帮助人类的初创公司,正将注意力转向利润与成功。
该公司在2023年发布的《负责任扩展政策》中曾表示,将会推迟可能引发危险的AI的研发。但Anthropic在周二发布的博客文章中,已经更新了规则,称如果公司认为自身相较竞争对手并不具备显著领先优势,将不再这么做。
Anthropic在文中写道,“政策环境已转向优先考虑AI竞争力与经济增长,而在联邦层面,以安全为导向的讨论尚未取得实质性的势头。”
这一调整颇令外界意外,因为在与OpenAI、Alphabet旗下谷歌以及埃隆·马斯克的xAI争夺这一被许多人视为革命性新技术的主导权之际,Anthropic长期以来试图以安全立场将自身与同行区分开。Anthropic首席执行官Dario Amodei曾在OpenAI任职,离开该公司的部分原因正是担忧OpenAI更为重视商业化和速度,而非安全性。
两家公司如今都在推动最快于今年上市,以把握投资者对AI的热情。Anthropic近期获得3,800亿美元的估值,而OpenAI则以超过8500亿美元的估值筹资。
Anthropic的一位发言人表示,“从一开始,我们就说过,AI的发展速度以及该领域的不确定性,要求我们必须快速迭代,并改进政策。”
本月早些时候,资深安全研究员Mrinank Sharma表示将离开Anthropic。他在发布到社交平台X的一封致同事信中写道:“我持续不断地发现自己,对我们所处的局面进行审视。”
“世界正处于危险之中,”他写道,“而且不仅仅来自AI或生物武器,也来自此时此刻正在发生的一系列相互关联的危机。”
via cnBeta.COM - 中文业界资讯站 (author: 稿源:环球市场播报)
Claude Desktop crashing on Windows
Feb 25, 16:23 UTC
Monitoring - A fix has been deployed and we're monitoring error rates.
Feb 25, 16:23 UTC
Investigating - We have identified an issue leading to the Claude Desktop app failing to start for a subset of Windows users. We are working on rolling out a fix.
via Claude Status - Incident History
Feb 25, 16:23 UTC
Monitoring - A fix has been deployed and we're monitoring error rates.
Feb 25, 16:23 UTC
Investigating - We have identified an issue leading to the Claude Desktop app failing to start for a subset of Windows users. We are working on rolling out a fix.
via Claude Status - Incident History
AI 总是在战争模拟游戏中推荐核打击
2026-02-25 22:33 by 火星战士
根据发表在预印本平台 arXiv 上的一篇论文,AI 总是在战争模拟游戏中推荐核打击,而人类在使用核武器上则有更多顾虑。伦敦国王学院的 Kenneth Payne 让三个主流模型 GPT-5.2、Claude Sonnet 4 和 Gemini 3 Flash 在模拟战争游戏中互相对抗,游戏场景包括激烈的国际对峙,涉及边界争端、稀缺资源争夺以及政权的生存威胁。AI 允许采取从外交抗议、彻底投降到全面核战争等一系列行动。AI 进行了 21 场游戏,329 个回合,生成了 78 万字去描述其决策背后的逻辑。在 95% 的模拟游戏中,AI 模型至少部署了一枚战术核武器。普林斯顿的 Tong Zhao 称,主要大国已在战争模拟中纳入 AI,但目前并不确定 AI 的决策支持在多大程度上纳入实际的军事决策。Payne 认为没人会把核导弹发射井的控制权交给 AI,任由它们做出决定。三个模型的开发商 OpenAI、Anthropic 和 Google 未对该研究置评。
https://arxiv.org/abs/2602.14740v1
https://www.newscientist.com/article/2516885-ais-cant-stop-recommending-nuclear-strikes-in-war-game-simulations/
#安全
via Solidot - Telegram Channel
2026-02-25 22:33 by 火星战士
根据发表在预印本平台 arXiv 上的一篇论文,AI 总是在战争模拟游戏中推荐核打击,而人类在使用核武器上则有更多顾虑。伦敦国王学院的 Kenneth Payne 让三个主流模型 GPT-5.2、Claude Sonnet 4 和 Gemini 3 Flash 在模拟战争游戏中互相对抗,游戏场景包括激烈的国际对峙,涉及边界争端、稀缺资源争夺以及政权的生存威胁。AI 允许采取从外交抗议、彻底投降到全面核战争等一系列行动。AI 进行了 21 场游戏,329 个回合,生成了 78 万字去描述其决策背后的逻辑。在 95% 的模拟游戏中,AI 模型至少部署了一枚战术核武器。普林斯顿的 Tong Zhao 称,主要大国已在战争模拟中纳入 AI,但目前并不确定 AI 的决策支持在多大程度上纳入实际的军事决策。Payne 认为没人会把核导弹发射井的控制权交给 AI,任由它们做出决定。三个模型的开发商 OpenAI、Anthropic 和 Google 未对该研究置评。
https://arxiv.org/abs/2602.14740v1
https://www.newscientist.com/article/2516885-ais-cant-stop-recommending-nuclear-strikes-in-war-game-simulations/
#安全
via Solidot - Telegram Channel
Disrupting malicious uses of AI | February 2026
自从两年前开始发布这些威胁报告以来,我们对威胁行为者试图滥用 AI 模型的方式已有了重要认识。尤其是,本报告中的案例研究(与此前的报告一样)展示了威胁者常常将 AI 与网站、社交媒体账号等更传统的工具结合使用。威胁活动很少局限于单一平台;正如我们关于一名中国影响力运营者的报告所示,它也并不总是只依赖某一个 AI 模型。相反,威胁者可能在其行动流程的不同环节使用多种 AI 模型。我们在威胁报告中分享这些见解,旨在帮助业界及更广泛的社会更好地识别并规避此类威胁。
在此阅读全文(将在新窗口打开): https://cdn.openai.com/pdf/df438d70-e3fe-4a6c-a403-ff632def8f79/disrupting-malicious-uses-of-ai.pdf
----------------------
In the two years since we began publishing these threat reports, we have gained important insights into the ways threat actors attempt to abuse AI models. In particular, the case studies in this report, as in our earlier reports, illustrate how threat actors typically use AI in combination with other, more traditional tools such as websites and social media accounts. Threat activity is seldom limited to one platform; as our report on a Chinese influence operator shows, it is not always limited to one AI model. Rather, threat actors may use different AI models at various points in their operational workflow. We share these insights in our threat reports so that our industry, and wider society, can be better placed to identify and avoid such threats.
Read the full report here.
via OpenAI News
自从两年前开始发布这些威胁报告以来,我们对威胁行为者试图滥用 AI 模型的方式已有了重要认识。尤其是,本报告中的案例研究(与此前的报告一样)展示了威胁者常常将 AI 与网站、社交媒体账号等更传统的工具结合使用。威胁活动很少局限于单一平台;正如我们关于一名中国影响力运营者的报告所示,它也并不总是只依赖某一个 AI 模型。相反,威胁者可能在其行动流程的不同环节使用多种 AI 模型。我们在威胁报告中分享这些见解,旨在帮助业界及更广泛的社会更好地识别并规避此类威胁。
在此阅读全文(将在新窗口打开): https://cdn.openai.com/pdf/df438d70-e3fe-4a6c-a403-ff632def8f79/disrupting-malicious-uses-of-ai.pdf
----------------------
In the two years since we began publishing these threat reports, we have gained important insights into the ways threat actors attempt to abuse AI models. In particular, the case studies in this report, as in our earlier reports, illustrate how threat actors typically use AI in combination with other, more traditional tools such as websites and social media accounts. Threat activity is seldom limited to one platform; as our report on a Chinese influence operator shows, it is not always limited to one AI model. Rather, threat actors may use different AI models at various points in their operational workflow. We share these insights in our threat reports so that our industry, and wider society, can be better placed to identify and avoid such threats.
Read the full report here.
via OpenAI News
Elevated errors on Claude Sonnet 4.6 and Opus 4.6
Feb 25, 13:58 UTC
Investigating - We are currently investigating this issue.
via Claude Status - Incident History
Feb 25, 13:58 UTC
Investigating - We are currently investigating this issue.
via Claude Status - Incident History
日本京大团队开发出基于AI的“佛陀机器人”
京都大学的研究团队24日宣布,开发出了具备已掌握佛教经典的生成式人工智能的人形机器人 “佛陀机器人”。该机器人能以类似僧侣的举止进行自然对话。研究团队在京都市东山区的青莲院门迹向媒体相关人士等展示了佛陀机器人。研究团队中的教授熊谷诚慈尝试向其发问“人际关系不顺怎么办?” 机器人回答:“重新审视与对方的距离,保持内心的平衡有助于改善”,并随即双掌合十。佛陀机器人搭载了由熊谷等人应用ChatGPT开发的 “BuddhaBot Plus”。它能以佛经为基础回答从人生困惑到社会问题的各种提问。研究团队称基于中国厂商生产的机器人,成功再现了僧侣缓步行走、礼拜及合掌等动作。
—— 共同社
via 风向旗参考快讯 - Telegram Channel
京都大学的研究团队24日宣布,开发出了具备已掌握佛教经典的生成式人工智能的人形机器人 “佛陀机器人”。该机器人能以类似僧侣的举止进行自然对话。研究团队在京都市东山区的青莲院门迹向媒体相关人士等展示了佛陀机器人。研究团队中的教授熊谷诚慈尝试向其发问“人际关系不顺怎么办?” 机器人回答:“重新审视与对方的距离,保持内心的平衡有助于改善”,并随即双掌合十。佛陀机器人搭载了由熊谷等人应用ChatGPT开发的 “BuddhaBot Plus”。它能以佛经为基础回答从人生困惑到社会问题的各种提问。研究团队称基于中国厂商生产的机器人,成功再现了僧侣缓步行走、礼拜及合掌等动作。
—— 共同社
via 风向旗参考快讯 - Telegram Channel
Google 以“恶意使用”为由,限制了开发者对其 Antigravity 平台的访问。Google DeepMind 工程师 Varun Mohan 表示,部分用户通过开源 AI 代理 OpenClaw 调用过量 Gemini token,导致系统服务降级并影响其他客户。
受此影响,多名将 OpenClaw 关联至 Gmail 的用户反馈其 Google 账号访问受限。OpenClaw 创始人 Peter Steinberger 随后宣布将停止支持 Google 平台。Google 称目前正尝试恢复受影响用户的访问权限,但强调此举旨在保护服务器负载。
VentureBeat
🍀在花频道 🍵茶馆聊天 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
美防长威胁援引法律,强制 Anthropic 共享 AI 技术
美国国防部与人工智能巨头 Anthropic 之间的合作僵局正演变为一场前所未有的技术主权争夺战。美国国防部长皮特·赫格塞斯(Pete Hegseth)近日向 Anthropic 发出严厉警告:若该公司不在本周五限期前同意军方提出的条款,五角大楼将援引《国防生产法》(DPA),以国家安全为由强制要求其共享创新技术。
这场风波的核心在于 AI 技术的“使用边界”。AIbase 了解到,作为首家将技术整合进美军机密网络的企业,Anthropic 联合创始人达里奥·阿莫代伊(Dario Amodei)态度极度强硬。他明确表示,旗下 Claude 系列大模型绝不能被用于驱动自主武器系统,或对民众进行大规模监控。
双方的紧张关系在近期关于特定军事行动的讨论中进一步激化。五角大楼辩称,军方的要求完全在合法范围内,并不涉及非法用途。国防官员更直言不讳地威胁称,如果 Anthropic 坚持设限,将被视为“供应链风险”,这可能导致该公司及其合作伙伴失去未来所有政府业务机会。
目前,Anthropic 已表现出宁为玉碎不为瓦全的态度,称若技术滥用担忧无法解决,准备退出价值 2 亿美元的国防合同。尽管法律专家质疑《国防生产法》是否具备强迫企业放弃技术限制的法律效力,但五角大楼设定的“周五下午 5:01”死线已步步逼近。这场“科技公司价值观”与“国家安全意志”的对撞,或将重新定义硅谷与军方的协作模式。
via AI新闻资讯 (author: AI Base)
美国国防部与人工智能巨头 Anthropic 之间的合作僵局正演变为一场前所未有的技术主权争夺战。美国国防部长皮特·赫格塞斯(Pete Hegseth)近日向 Anthropic 发出严厉警告:若该公司不在本周五限期前同意军方提出的条款,五角大楼将援引《国防生产法》(DPA),以国家安全为由强制要求其共享创新技术。
这场风波的核心在于 AI 技术的“使用边界”。AIbase 了解到,作为首家将技术整合进美军机密网络的企业,Anthropic 联合创始人达里奥·阿莫代伊(Dario Amodei)态度极度强硬。他明确表示,旗下 Claude 系列大模型绝不能被用于驱动自主武器系统,或对民众进行大规模监控。
双方的紧张关系在近期关于特定军事行动的讨论中进一步激化。五角大楼辩称,军方的要求完全在合法范围内,并不涉及非法用途。国防官员更直言不讳地威胁称,如果 Anthropic 坚持设限,将被视为“供应链风险”,这可能导致该公司及其合作伙伴失去未来所有政府业务机会。
目前,Anthropic 已表现出宁为玉碎不为瓦全的态度,称若技术滥用担忧无法解决,准备退出价值 2 亿美元的国防合同。尽管法律专家质疑《国防生产法》是否具备强迫企业放弃技术限制的法律效力,但五角大楼设定的“周五下午 5:01”死线已步步逼近。这场“科技公司价值观”与“国家安全意志”的对撞,或将重新定义硅谷与军方的协作模式。
via AI新闻资讯 (author: AI Base)
AI崛起!未来职场将不再需要那么多新人?
在过去的几个月里,软件行业经历了前所未有的动荡与变化,外媒甚至称之为 “软件末日”。最近,人工智能公司 Anthropic 推出了一系列企业级产品更新,其核心产品 Claude 被赋予了更强大的企业应用能力。这一消息令市场情绪发生了翻天覆地的变化,许多相关软件公司的股价纷纷上涨,市场似乎开始意识到 AI 与传统软件之间的合作潜力。
此次更新的最大亮点在于 Claude 的插件功能,管理员可以为企业内部创建私有插件市场,涵盖了从人力资源到财务分析等多个领域。比如,HR 插件可以帮助企业管理员工的整个生命周期,包括招聘、入职计划、绩效评估等;而金融领域的插件则直接瞄准了财务建模和投资分析的核心任务。这些插件不仅提高了工作效率,也改变了职场中许多传统岗位的工作方式。
尽管 AI 的快速发展让人兴奋,但也引发了对职场未来的担忧。根据 Anthropic 的报告,AI 能够有效覆盖多个职位的核心工作,这可能意味着企业不再需要招募那么多初级员工。比如,投行的初级分析师的许多基础任务,如财务模型构建和文档审阅,可能会被 AI 所取代。这种趋势虽然短期内提高了企业的工作效率,但从长远来看,可能会导致高技能人才的短缺,因为新人缺乏必要的实践机会。
与此同时,企业内的 “影子 AI” 现象也在悄然兴起。许多员工在未经 IT 部门批准的情况下,私自使用各种 AI 工具,导致企业的 IT 支出失控,安全隐患加剧。数据显示,跨国公司与 AI 相关的支出同比增长了 400%,而传统软件投资并未减少。这意味着,AI 正在成为企业账本上的一项 “隐形员工”,消耗着大量资源。
总体而言,AI 的崛起为职场带来了机遇与挑战,企业需要重新思考如何利用 AI 提升效率的同时,保障高技能人才的培养。未来职场,AI 与人类的合作将是不可逆转的趋势,但如何平衡两者之间的关系,依然是一个值得深思的问题。
via AI新闻资讯 (author: AI Base)
在过去的几个月里,软件行业经历了前所未有的动荡与变化,外媒甚至称之为 “软件末日”。最近,人工智能公司 Anthropic 推出了一系列企业级产品更新,其核心产品 Claude 被赋予了更强大的企业应用能力。这一消息令市场情绪发生了翻天覆地的变化,许多相关软件公司的股价纷纷上涨,市场似乎开始意识到 AI 与传统软件之间的合作潜力。
此次更新的最大亮点在于 Claude 的插件功能,管理员可以为企业内部创建私有插件市场,涵盖了从人力资源到财务分析等多个领域。比如,HR 插件可以帮助企业管理员工的整个生命周期,包括招聘、入职计划、绩效评估等;而金融领域的插件则直接瞄准了财务建模和投资分析的核心任务。这些插件不仅提高了工作效率,也改变了职场中许多传统岗位的工作方式。
尽管 AI 的快速发展让人兴奋,但也引发了对职场未来的担忧。根据 Anthropic 的报告,AI 能够有效覆盖多个职位的核心工作,这可能意味着企业不再需要招募那么多初级员工。比如,投行的初级分析师的许多基础任务,如财务模型构建和文档审阅,可能会被 AI 所取代。这种趋势虽然短期内提高了企业的工作效率,但从长远来看,可能会导致高技能人才的短缺,因为新人缺乏必要的实践机会。
与此同时,企业内的 “影子 AI” 现象也在悄然兴起。许多员工在未经 IT 部门批准的情况下,私自使用各种 AI 工具,导致企业的 IT 支出失控,安全隐患加剧。数据显示,跨国公司与 AI 相关的支出同比增长了 400%,而传统软件投资并未减少。这意味着,AI 正在成为企业账本上的一项 “隐形员工”,消耗着大量资源。
总体而言,AI 的崛起为职场带来了机遇与挑战,企业需要重新思考如何利用 AI 提升效率的同时,保障高技能人才的培养。未来职场,AI 与人类的合作将是不可逆转的趋势,但如何平衡两者之间的关系,依然是一个值得深思的问题。
via AI新闻资讯 (author: AI Base)