https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
✨BEST AI中转 https://api.oaibest.com 2.8-4.2折 支持OpenAI, Claude, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
✨BEST AI中转 https://api.oaibest.com 2.8-4.2折 支持OpenAI, Claude, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
🤖🤖 OpenAI 与 Anthropic 首次开展联合 AI 安全评估
OpenAI 和 Anthropic 今年夏天进行了首次跨实验室安全评估合作,双方互相测试对方的公开模型并公布结果。这项合作旨在发现各自内部测试可能遗漏的问题,加深对 AI 模型潜在错位行为的理解。
评估涵盖了多个关键领域,包括幻觉、越狱攻击、指令层级和欺骗行为等。结果显示,OpenAI 的推理模型 o3 在大多数评估中表现最佳,而 Anthropic 的 Claude 4 模型在抵抗系统提示提取方面表现出色。两家公司都发现了各自模型的改进空间,特别是在减少有害内容配合、降低幻觉率和提高安全性方面。两家公司表示,此次合作有助于发现各自模型的盲点,推动 AI 安全评估标准的建立。
Bloomberg | Anthropic | OpenAI
🍀在花频道 🍵茶馆 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
OpenAI 和 Anthropic 今年夏天进行了首次跨实验室安全评估合作,双方互相测试对方的公开模型并公布结果。这项合作旨在发现各自内部测试可能遗漏的问题,加深对 AI 模型潜在错位行为的理解。
评估涵盖了多个关键领域,包括幻觉、越狱攻击、指令层级和欺骗行为等。结果显示,OpenAI 的推理模型 o3 在大多数评估中表现最佳,而 Anthropic 的 Claude 4 模型在抵抗系统提示提取方面表现出色。两家公司都发现了各自模型的改进空间,特别是在减少有害内容配合、降低幻觉率和提高安全性方面。两家公司表示,此次合作有助于发现各自模型的盲点,推动 AI 安全评估标准的建立。
Bloomberg | Anthropic | OpenAI
🍀在花频道 🍵茶馆 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
Linear-based Background Agents failing to start
Aug 28, 03:42 UTC
Investigating - We are investigating this issue.
via Cursor Status - Incident History
Aug 28, 03:42 UTC
Investigating - We are investigating this issue.
via Cursor Status - Incident History
📦 Nx恶意版本引发供应链攻击,AI工具被用于数据窃取
事件概述
恶意版本的Nx及其支持插件被发布到npm,引发了一场供应链攻击。首个受感染包于2025年8月26日22:32:25 UTC发布,并在约8小时的暴露窗口后于2025年8月27日02:44:00 UTC被npm移除。
攻击机制与影响
攻击者通过一个被盗用的npm令牌发布了恶意包,其中包含一个`postinstall`脚本。该脚本旨在扫描用户文件系统,窃取敏感开发者资产,包括加密货币钱包、GitHub和npm令牌、SSH密钥及云凭证。被盗数据经过多重Base64编码后,上传至攻击者控制的公共GitHub仓库(如`s1ngularity-repository`)。据观察,此次攻击导致超过1000个有效GitHub令牌、数十个有效云凭证和npm令牌以及约20,000个文件泄露。恶意软件在开发者机器(常通过Nx VSCode扩展)和GitHub Actions等构建管道中运行。此外,恶意软件还试图通过向`~/.bashrc`和`~/.zshrc`添加`sudo shutdown -h 0`来锁定系统。
AI工具角色
值得注意的是,恶意软件会检测系统中是否存在Claude Code CLI或Gemini CLI,并利用这些AI工具通过特定提示词(如递归搜索敏感文件路径)来执行侦察任务,从而“卸载”大部分可被指纹识别的代码。
安全建议与讨论
文章强调了软件供应链安全面临的严峻挑战,并提出了多项防御建议:
* 禁用npm安装脚本:通过`npm config set ignore-scripts true`全局禁用。
* 沙盒化:使用`bubblewrap`等工具隔离包管理器,或在VM/容器中进行开发。
* 选择更安全的包管理器:如`pnpm`和`Bun`,它们默认不执行生命周期脚本。
* 审慎添加依赖:鼓励开发者在引入新依赖前三思,或考虑自行编写简单功能。
* 代码签名与MFA:呼吁包管理器仓库强制实施代码签名和多因素认证(MFA)。
* 行业反思:对当前软件开发中过度依赖第三方库、缺乏严格审计以及AI工具潜在滥用等问题进行了深入讨论。
(HackerNews)
via 茶馆 - Telegram Channel
事件概述
恶意版本的Nx及其支持插件被发布到npm,引发了一场供应链攻击。首个受感染包于2025年8月26日22:32:25 UTC发布,并在约8小时的暴露窗口后于2025年8月27日02:44:00 UTC被npm移除。
攻击机制与影响
攻击者通过一个被盗用的npm令牌发布了恶意包,其中包含一个`postinstall`脚本。该脚本旨在扫描用户文件系统,窃取敏感开发者资产,包括加密货币钱包、GitHub和npm令牌、SSH密钥及云凭证。被盗数据经过多重Base64编码后,上传至攻击者控制的公共GitHub仓库(如`s1ngularity-repository`)。据观察,此次攻击导致超过1000个有效GitHub令牌、数十个有效云凭证和npm令牌以及约20,000个文件泄露。恶意软件在开发者机器(常通过Nx VSCode扩展)和GitHub Actions等构建管道中运行。此外,恶意软件还试图通过向`~/.bashrc`和`~/.zshrc`添加`sudo shutdown -h 0`来锁定系统。
AI工具角色
值得注意的是,恶意软件会检测系统中是否存在Claude Code CLI或Gemini CLI,并利用这些AI工具通过特定提示词(如递归搜索敏感文件路径)来执行侦察任务,从而“卸载”大部分可被指纹识别的代码。
安全建议与讨论
文章强调了软件供应链安全面临的严峻挑战,并提出了多项防御建议:
* 禁用npm安装脚本:通过`npm config set ignore-scripts true`全局禁用。
* 沙盒化:使用`bubblewrap`等工具隔离包管理器,或在VM/容器中进行开发。
* 选择更安全的包管理器:如`pnpm`和`Bun`,它们默认不执行生命周期脚本。
* 审慎添加依赖:鼓励开发者在引入新依赖前三思,或考虑自行编写简单功能。
* 代码签名与MFA:呼吁包管理器仓库强制实施代码签名和多因素认证(MFA)。
* 行业反思:对当前软件开发中过度依赖第三方库、缺乏严格审计以及AI工具潜在滥用等问题进行了深入讨论。
(HackerNews)
via 茶馆 - Telegram Channel