https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
Elevated Error Rate for Vaults and Credentials

May 12, 18:51 UTC
Monitoring - A fix has been implemented and we are monitoring the results.

May 12, 18:47 UTC
Investigating - We are currently investigating this issue.

via Claude Status - Incident History
Google上线“Create My Widget”功能 用自然语言定制Android主屏组件

Google周二发布一项全新 Android 功能“Create My Widget(创建我的组件)”,允许用户通过自然语言“随心描述”,由系统自动生成个性化桌面小组件。该功能将于今夏率先在最新款三星 Galaxy 和Google Pixel 手机上推出。

用户无需编写代码或下载额外应用,只需在界面中用日常语言描述需求,即可生成对应组件。 例如,可以让系统“每周推荐三道高蛋白备餐菜谱”,从而在手机主屏上获得一个可添加、可调整大小的菜谱推荐面板。 如果用户是骑行爱好者,也可以只订制一个显示风速和降雨情况的天气组件,把与自己无关的信息全部剔除。

“Create My Widget”依托Google的 Gemini 人工智能能力,既能从网上抓取公开信息,也能与 Gmail、日历等应用打通,组合成一个整合多源数据的个性化信息面板。 比如用户正在筹划在柏林举行家庭聚会,系统可以自动汇总机票和酒店信息、展示餐厅预订情况,并在桌面组件中加入活动倒计时。

这一新功能被视为Google将生成式 AI 深度嵌入 Android 体验的又一动作,目标是让复杂的定制工具变得更易上手,让普通用户也能“开口即用”。 Google Android 核心体验产品管理总监 Ben Greenwood 在媒体沟通中表示,这就像是“你反复向私人助理提一个问题,然后让对方持续把答案摆在你眼前”。 他称,Gemini 既可以回答有关世界与实时事件的问题,也能围绕用户个人数据构建体验,这两方面将打开“数量巨大的新用例”。

这一发布与Google同步推出的“Gemini Intelligence”一同亮相,后者还将为 Android 带来更智能的自动填表功能、Gboard 中的 AI 语音输入等多项新能力。 随着这类功能加入系统层,Google正试图以更“无缝”的方式,把 AI 从单一应用推向整个手机操作体验。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)
SpaceX 与 Google 磋商轨道数据中心发射合作

Google 正与 SpaceX 就火箭发射协议进行谈判,以推进其轨道数据中心项目“Project Suncatcher”。Google 去年宣布计划 2027 年前发射原型卫星,并已与 Planet Labs 合作研制卫星。

SpaceX 将轨道数据中心作为今年夏季 IPO 的核心卖点,近期还与 Anthropic 达成地面对算力交易,将在 5 月底前提供 300 兆瓦算力、超 22 万块 Nvidia GPU。

The Wall Street Journal

🌸 在花频道 · 茶馆讨论 · 投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
Mini Shai-Hulud 蠕虫入侵 npm/PyPI:TanStack、Mistral AI 等 170+ 包遭供应链攻击

TeamPCP 攻击者通过 Mini Shai-Hulud 活动,入侵了 TanStack、Mistral AI、OpenSearch、Guardrails AI 等 npm 和 PyPI 包,植入 JavaScript 恶意代码,窃取云服务、加密钱包、AI 工具等凭证,并通过 Session Protocol 域名或 GitHub API 外传数据。

此次攻击利用 GitHub Actions pull_request_target 触发器、缓存投毒和 OIDC 令牌劫持,实现自我传播,受影响的包超 170 个,累积下载量超 5.18 亿次。恶意代码还安装持久化钩子,并内置自毁机制防止令牌被撤销。

The Hacker News

🌸 在花频道 · 茶馆讨论 · 投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
用好CC,事半功倍!Claude Code 命令大全,黄金命令推荐、多模型配置、实践指南、Hooks 和踩坑记录大全

via 掘金人工智能本月最热 (author: 蝎子莱莱爱打怪)
Anthropic 拒绝中国智库接触最新 AI 模型

上月新加坡一场会议上,一名中国智库代表要求 Anthropic 向北京开放其最新 AI 模型的访问权限,Anthropic 当场拒绝。这场会议由卡内基国际和平基金会召集。虽然这不是中国政府的正式请求,但已引起美国国家安全委员会警惕。

白宫认为,这次接触显示北京正尝试通过不同渠道获取美国公司的尖端 AI 模型。Anthropic 和 OpenAI 最新一轮技术进展,也被视为进一步拉大了美国在这一领域的领先优势。

The New York Times

🌸 在花频道 · 茶馆讨论 · 投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
AI 编程者随身开着笔记本走动,只为让代码代理持续运行

越来越多使用 Claude Code、OpenAI Codex 等 AI 代理的开发者,开始在机场、办公室、学校走廊甚至滑冰场边手捧半开笔记本走动,只为避免待机中断代理任务。

有人把屏幕只留一条缝,戏称为“墨西哥卷饼”或“蛤蜊壳”;有人直到登机最后一刻才合盖,也有人边走边用手机热点维持连接。虽然尴尬且引人侧目,这一行为在技术圈已演化为被 OpenAI 官方玩梗的日常景象。

Business Insider

🌸 在花频道 · 茶馆讨论 · 投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
李开复:开源模型是实现“AI主权”的更优路径

创新工场董事长李开复近日在专访中深入探讨了“AI主权”的概念。他指出,人工智能主权不仅关乎技术控制权和数据安全,还涉及模型与本土文化及法律的适配性。他认为,并非每个国家都有必要重造一个OpenAI,盲目追求昂贵的闭源自研并非良策。

李开复强调,对于大多数资源有限的国家和企业而言,基于开源模型构建本地化体系是更现实的选择。这种“第三条路”通过在开源基础上进行增量训练,能以极低的成本让模型符合特定地区的价值观,而非受制于他国的通用模型。

工程效率与生态之争

谈及中美竞争,李开复认为资源受限反而催生了中国企业的极致工程效率。他以DeepSeek为例,指出中国公司在算力不足的情况下,通过优化架构和减少依赖,能以不到美国十分之一的投入实现极高的性能。

他预测AI领域将演变成类似“iPhone与安卓”的格局。闭源模型如同一方领地,追求高利润和生态控制力;而开源模型则代表了更广阔的市场覆盖和普及度,两者将在全球范围内长期并存,共同构建未来的智能生态。

中国硬件的下半场机遇

李开复对中国在物理AI和硬件制造方面的结构性优势表示乐观。他指出,中国拥有全球最完整的供应链体系,从智能穿戴到机器人,制造成本远低于西方。未来AI时代的标杆级硬件,极有可能由中国设计并品牌化。

此外,中国在语音驱动交互和大规模现实数据生成方面也具备独特文化优势。随着“人工智能+”政策对实体经济的赋能,硬件与AI的深度结合将成为中国在AI下半场竞赛中的核心竞争力。

via AI新闻资讯 (author: AI Base)
号称“危险”的AI扫描17. 6 万行代码后,仅揪出一个低危漏洞

近日,Anthropic公司备受瞩目的AI安全分析模型Mythos,在开源界遭遇了一场意料之外的“滑铁卢”。尽管官方曾大肆宣传该模型在发现源代码漏洞方面能力过于强悍,甚至为此推迟了公开发布,但在对全球知名开源工具curl的实测中,Mythos交出的答卷却显得有些苍白:在多达17. 6 万行代码的严密扫描下,最终仅确认了一个低危漏洞。

这场测试的推动者是curl项目的创始人Daniel Stenberg。他通过相关项目获得了Mythos的有限测试权限,试图给这个拥有 200 亿次安装量的网络传输利器做一次深度“体检”。curl的代码库一向以极高的安全工程标准著称,不仅经过了数百位贡献者的精心打磨,更长期接受各类自动化扫描及高昂的专业审计。

测试过程起初看起来硕果累累。Mythos的初始报告宣称发现了“ 5 个已确认的安全漏洞”,但经过curl安全团队数小时的人工复核,这些结果迅速缩水:其中 3 个被判定为误报,仅是符合文档描述的正常行为; 1 个被定性为普通bug,不具备安全威胁。最终,仅剩下 1 个严重程度被评为“低”的漏洞。

对于这样的结果,Stenberg直言不讳地指出,Anthropic所谓的“危险级能力”更像是一场成功的市场营销。他表示,早在Mythos之前,curl团队就已经利用多款AI安全工具修复了数百个bug,而第一批工具往往更容易捡到“低垂的果实”。随着代码库的日益完善,AI想要挖掘出深层的新型漏洞已变得难上加难。

不过,Stenberg并未全盘否定AI的价值。他承认,相比于传统的静态分析器,像Mythos这样的AI工具在理解协议规范、识别注释与代码不符、以及模拟复杂环境下的配置检查方面具有显著优势。它们更像是一个博学且擅长总结的助手,尽管给出的修复方案并不总是百分之百正确。

此次实测给业界敲响了警钟:AI虽然在代码审计领域带来了效率的质变,但目前依然只能发现“已知类型”的错误实例,而非创造全新的漏洞检测逻辑。在保障核心安全方面,严谨的安全工程实践——如防御性基础设施的构建和严格的数值上限限制,依然是比AI工具更可靠的“银弹”。

via AI新闻资讯 (author: AI Base)
现实版“权力的游戏”?Ilya法庭作证:奥特曼曾用谎言编织OpenAI网路

据最新法庭披露的信息显示,OpenAI 的前任首席科学家伊利亚·苏茨克弗(Ilya Sutskever)在马斯克起诉 OpenAI 的案件中作为关键证人出庭。他的证词不仅坐实了 2023 年那场震惊科技界的“政变”并非心血来潮,更揭开了公司高层之间长期存在的信任危机。

蓄谋已久的“倒萨”行动

苏茨克弗在法庭上承认,早在 2023 年 11 月那场短暂的罢免风波发生前的一年,他就已经开始着手收集萨姆·奥尔特曼(Sam Altman)“不诚实行为”的证据。根据他的描述,这份应董事会要求整理的秘密文件长达 52 页,详细记录了奥尔特曼如何通过“一贯的撒谎模式”来操纵公司决策。

这份文件中列举了多项具体细节:奥尔特曼被指控频繁在高管之间挑拨离间,削弱他人的管理权威,并向董事会隐瞒重大事实。一个典型的例子是,奥尔特曼曾单方面宣称 GPT-4 Turbo 无需经过安全委员会审查,理由是得到了法务部门的批准,但随后这一说法被公司首席法务官当场拆穿。

诚信基石的崩塌

苏茨克弗认为,奥尔特曼的行为模式已经严重威胁到了 OpenAI 的核心使命——安全地开发通用人工智能(AGI)。他直言不讳地表示:“山姆不该是那个手握按钮的人。”在他看来,一个充满欺骗和内部对立文化的组织,根本无法承担起掌控 AGI 这种改变人类命运技术的责任。

证词还揭示了两人在技术路线与资源分配上的深层矛盾。有资料显示,苏茨克弗当时对于研究部门与应用部门之间的算力争夺深感不满,而奥尔特曼对部分研究员的快速提拔也加剧了这种裂痕。

多方博弈下的“权力天平”

马斯克方的律师团队将这份 52 页的备忘录作为核心证据,试图向法官证明奥尔特曼已经丧失了领导公司的诚信基础,并请求法院强制其下台。与此同时,微软 CEO 纳德拉在出庭时则表现得更为务实,他将对 OpenAI 的巨额投资描述为一次“经过计算的风险”。

虽然苏茨克弗在罢免事件发生后一度因为担心公司崩溃而投票支持奥尔特曼复职,并对此感到后悔,但他随后在 2024 年毅然选择离职,创立了 Safe Superintelligence(SSI)。这场横跨数年的纷争不仅是个人恩怨的爆发,更是关于 AI 发展主导权、安全边界与营利边界的一次全面摊牌。

via AI新闻资讯 (author: AI Base)
GPT-5.5-Cyber 落地欧洲:OpenAI 与 Anthropic 的安全模型竞赛

OpenAI 正式宣布,将向欧盟开放其最先进的网络安全大模型 GPT-5.5-Cyber。这一动作不仅标志着顶尖 AI 模型的跨境落地,也引发了外界对各大科技巨头在安全监管与合规进度上的深度关注。

根据最新的行业动态,GPT-5.5-Cyber 的访问权限将精准开放给企业、政府机构、网络安全专家以及欧盟 AI 办公室等关键职能部门。OpenAI 此举被视为其在加强全球网络防御合作方面迈出的关键一步,旨在利用大模型强大的理解与分析能力,助力相关机构更有效地应对日益复杂的网络安全挑战。

欧盟委员会对于此次合作表现出了积极的姿态。其发言人在新闻发布会上公开点赞了 OpenAI 的透明度,并强调这种开放意愿将使监管部门能够实时、密切地跟踪模型的实际部署情况,从而更有针对性地处理潜在的网络安全风险。

相比之下,OpenAI 的老对手 Anthropic 在欧洲的进展则略显滞后。尽管该公司在一个月前就高调推出了名为 Mythos 的网络安全模型,甚至一度引发了市场关于软件安全性受威胁的担忧,但直到目前,Mythos 仍未获得进入欧盟市场的“入场券”。

据悉,欧盟目前正与 Anthropic 就访问权限问题进行密集磋商,双方虽然已经进行了四至五轮的谈判,但进度远落后于 OpenAI。内部消息透露,目前的讨论还停留在程序层面,尚未触及具体的解决方案阶段。这种合规进度上的差异,也让目前全球安全模型的布局呈现出截然不同的局面。

via AI新闻资讯 (author: AI Base)
马斯克Grok模型在AI竞赛中渐处下风

马斯克旗下AI模型Grok已远远落后于迅猛增长的竞争对手。与此同时,其母公司SpaceX同意将庞大算力出租给Anthropic,这一协议不禁让人怀疑:Grok究竟还能否迎头赶上。

根据分析公司AppMagic的数据,Grok的下载量已从今年1月份超2,000万次的峰值暴跌至四月份的830万次左右。研究公司Recon Analytics对超过26万名使用AI的美国消费者及职场人士进行了调查。结果显示,在2026年第二季度,表示曾为Grok付费的受访者比例仅为0.174%,与一年前的0.173%相比几乎毫无起色。相比之下,超过6%的受访者表示他们会为ChatGPT买单。

—— 华尔街日报

via 风向旗参考快讯 - Telegram Channel
防篡位“金身”:OpenAI悄然改章程大幅提升罢免奥特曼难度

在经历了 2023 年的“政变”风波后,OpenAI近期通过修改公司章程,为其首席执行官萨姆·奥特曼筑起了一道坚固的防御墙。根据最新曝光的法庭文件,奥特曼如今在公司内部的地位已稳如泰山,外部干预或董事会内部罢免的门槛被大幅拉高。

马斯克起诉OpenAI案件的专家证人指出,这些变动是在公司向营利性转型期间悄悄完成的。相较于过去简单多数票即可解雇CEO的规则,新规则实质上赋予了奥特曼极强的留任保障。

从简单多数到绝对多数

根据去年 10 月通过的新章程,若要罢免CEO,必须获得公共利益公司(PBC)非员工董事三分之二以上的“绝对多数”同意。在当前的董事会架构下,这意味着奥特曼只需要额外获得两名董事的支持,就能抵消其他所有人的反对意见。

而在 2023 年的罢免事件中,当时的 6 名董事会成员中有 4 人投赞成票便成功将其解雇。新的权力格局使得即便拥有投票权的 7 名董事中有 4 人投出反对票,也无法达到法定的罢免门槛。

权力结构的深度重塑

目前的OpenAI董事会成员包括Salesforce前联席CEO布雷特·泰勒、Quora创始人亚当·丹杰洛等人。这种“绝对多数”的架构变动,被外界视为OpenAI管理层在权力斗争后的防御性举措,旨在确保核心领导层在激进转型期的连续性。

专家分析认为,这种治理结构的改变反映了OpenAI已完全摆脱了早期的公益组织属性。通过这一制度创新,奥特曼不仅掌握了公司的技术方向,更在法理层面锁定了对这家估值千亿美元AI巨头的长期控制权。

via AI新闻资讯 (author: AI Base)
AMD 推出 vLLM-ATOM 插件,深度优化国产大模型推理表现

近日,AMD 正式发布了名为 vLLM-ATOM 的全新插件。这款工具的核心使命是在维持现有工作流不变的前提下,显著榨取硬件潜能,为 DeepSeek-R1、Kimi-K2以及 gpt-oss-120B 等主流大语言模型的推理过程实现大幅提速。

对于开发者而言,vLLM 是一套旨在优化高并发场景下吞吐量与显存利用率的开源框架。与传统的单次调用工具不同,它更专注于请求调度与缓存管理。而此次 AMD 推出的 ATOM 插件,则是一套专为 Instinct GPU 打造的深度定制方案。它最大的亮点在于“无感迁移”:企业用户无需修改现有的 API 接口、命令或端到端操作流程,插件即可在后台自动接管并完成底层的性能优化。

从技术架构上看,vLLM-ATOM 采用了精密的三层设计。顶层继续沿用 vLLM 的请求调度与兼容接口;中间层的 ATOM 插件则负责模型实现与内核调优;而最底层的 AITER 则直接对接 GPU 硬件,提供包括 Flash Attention、量化 GEMM 以及融合 MoE 在内的核心加速能力。

这一插件主要面向 Instinct MI350、MI400以及 MI355X 等高性能 GPU 计算卡。在支持列表中,不仅涵盖了 Qwen3、GLM、DeepSeek 等明星模型,还实现了对 MoE(混合专家模型)、稠密模型以及视觉语言模型(VLM)等多种架构的全覆盖。

行业分析人士指出,该方案的核心价值在于极大地降低了高性能算力的部署门槛。通过这种“零学习成本”的平滑迁移方案,企业可以更轻松地将 AI 服务切换至 AMD 硬件后端,在保证推理效率的同时,有效提升了大模型在线服务的稳定性和响应速度。

via AI新闻资讯 (author: AI Base)
谷歌地图深度集成 Gemini:CarPlay 导航即将进入对话时代

根据最新曝光的代码信息显示,谷歌正准备为 Apple CarPlay 版本的谷歌地图引入 Gemini 人工智能助手,这意味着车载导航的智能化体验将迎来质的飞跃。

目前,Gemini 已经在 iPhone 端的谷歌地图应用中发挥作用,用户可以通过“Ask Maps”功能,利用 AI 解决有关目的地或周边环境的复杂现实问题。但在以往的 CarPlay 环境下,这一功能始终缺席。最新的开发动态表明,只要用户在手机端同意更新后的服务条款,即可在车载系统中解锁 Gemini 的支持,从而获取更具条理的导航指引和详尽的地点信息。

这一功能的落地很大程度上得益于苹果在系统层面上的开放。自 iOS26.4版本起,苹果允许第三方语音对话类应用与 CarPlay 进行更深层次的集成。这为谷歌将 Gemini 引入车载生态铺平了道路。

在实际使用中,驾驶者将不再局限于传统的语音指令。通过 Gemini,用户可以以对话的方式进行交互,例如在开启导航后直接询问目的地的具体细节或寻求出行建议。尽管目前该功能尚未正式上线,但相关代码框架已经内置于应用之中,预示着在完成最后的测试后,它将通过版本更新向全球用户推送。

随着 Gemini 的加入,CarPlay 的 AI 助手阵营已日益壮大。此前,ChatGPT、Grok 和 Perplexity 等主流 AI 服务已先后接入该生态。对于车主而言,这不仅是导航工具的升级,更标志着车载系统正从单纯的“工具箱”向具备深度理解能力的“智能副驾”转型。

via AI新闻资讯 (author: AI Base)
OpenAI将向欧盟开放其新网络安全模型

OpenAI公司官宣向欧盟开放全新网络安全专用模型,而Anthropic公司迟迟拒绝开放争议模型Mythos。据悉,OpenAI公司本次开放的模型为GPT-5.5-Cyber,专供网络安全防护使用。欧盟政府部门、网络安全机构、合规企业均可获得使用权限。目前该模型已对审核通过的安全团队限量开放。欧盟官方高度认可OpenAI的透明化举措,双方将在本周继续深化合作洽谈,严格监控模型部署,规避网络安全风险。相比之下,Anthropic合作进展缓慢。该公司上月发布的Mythos模型曾引发外界对网络攻击风险的担忧。

—— 环球网CNBC

via 风向旗参考快讯 - Telegram Channel
微软CEO就马斯克案作证:投资OpenAI时目标获得920亿美元回报

5月12日,据彭博社报道,微软公司在其早期对OpenAI的大规模投资中,设定了920亿美元的回报目标。双方这一具有里程碑意义的合作,帮助开启了当前的AI时代。

这一目标包含在微软2023年初的规划文件中,并于周一在法庭上披露。微软CEO萨提亚·纳德拉(Satya Nadella)在加州奥克兰联邦法院向陪审团作证时表示,这些投资“效果很好,因为我们承担了风险”。该诉讼的陪审团正在审理埃隆·马斯克(Elon Musk)针对OpenAI和微软发起的一起备受关注的案件。

截至2023年初,微软已向OpenAI投资了大约130亿美元。自那以后,OpenAI的估值飙升,到今年3月底已达到8520亿美元。截至去年10月,微软持有的OpenAI股份价值约为1350亿美元。

马斯克在2024年提起诉讼,指控OpenAI联合创始人萨姆·奥特曼(Sam Altman)和格雷格·布罗克曼(Greg Brockman)放弃了该公司作为造福人类的非营利组织的创始使命,转而采取以营利为目的的商业运营模式。马斯克声称,微软助长了这一背弃行为。

OpenAI、奥特曼、布罗克曼以及微软均否认存在不当行为,称马斯克的指控是毫无根据的骚扰,目的是为了宣传他在2023年创立的AI创业公司xAI。

不过,微软与OpenAI曾就双方合作条款发生争执,而且随着时间推移,两家公司也逐渐形成更直接的竞争关系。作为OpenAI去年重组的一部分,微软获得了这家创业公司27%的所有权股份。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:凤凰网科技)
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]