https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
Anthropic 指控三家中国 AI 公司蒸馏数据训练模型

2026-02-24 21:47 by 圣天秤星

Anthropic 指控三家中国 AI 公司利用蒸馏技术训练其模型。Anthropic 称深度求索(DeepSeek)、月之暗面和稀宇科技利用约 2.4 万个虚假账号,与 Anthropic 的 Claude 聊天机器人产生了超过 1600 万次对话,这些数据可用于训练三家公司自己的聊天机器人。利用一个 AI 的数据训练另一个系统的过程被称为知识蒸馏,在 AI 领域较为常见。Anthropic 的服务条款禁止任何人以秘密方式抓取数据用于蒸馏,同时不允许其技术在中国境内使用。OpenAI 也指控 DeepSeek 利用蒸馏技术训练模型。Anthropic 呼吁政府官员及其他 AI 企业共同阻止中国公司对美国模型进行蒸馏。

https://www.anthropic.com/news/detecting-and-preventing-distillation-attacks
https://www.nytimes.com/2026/02/23/technology/anthropic-chinese-startups-distillation.html

#人工智能

via Solidot - Telegram Channel
谷歌强硬出击:封禁接入OpenClaw的用户,意在独占AI市场?

近期,谷歌在其人工智能开发平台 Antigravity 上采取了一系列严格措施,限制用户接入第三方智能体。这一消息引发了广泛关注,因为许多使用该平台的开发者发现,他们的账号在接入 OpenClaw、OpenCode 等开源 AI 编码智能体后被封禁,甚至连绑定的邮箱服务也受到影响。

Antigravity 是谷歌在 2025 年 11 月推出的 AI 集成开发环境(IDE)平台,致力于为开发者提供强大的智能体功能,能够直接调用谷歌的底层 AI 模型。随着 OpenCode、OpenClaw 等开源框架的流行,越来越多的开发者选择在 Antigravity 上部署这些第三方框架,以增强其应用的功能和灵活性。然而,谷歌对此的反应却是迅速而果断的,开始对那些试图利用这些开源智能体的用户实施封禁措施。

业内人士认为,谷歌的这一举措不仅是出于对自身知识产权的保护,也可能是为了维护其在人工智能市场中的竞争优势。谷歌一直以来都是 AI 领域的领军者,其底层模型拥有强大的技术实力和市场影响力。随着开源智能体的崛起,谷歌可能感受到威胁,因此选择采取行动以维护自己的地位。

对于开发者来说,这一政策无疑带来了挑战。许多人在社交媒体上表达了他们的不满,认为这样的限制会限制创新,阻碍 AI 技术的发展。同时,也有一些声音指出,这种政策可能会促使开发者寻找新的平台或工具,以规避谷歌的限制,转而支持更开放的生态系统。

总之,谷歌这一限制措施不仅是为了保护自身利益,也是对开源智能体崛起的直接反应。随着人工智能技术的快速发展,未来的竞争格局仍充满变数,开发者们将如何适应这一新环境,值得我们持续关注。

via AI新闻资讯 (author: AI Base)
超越 Transformer 架构?Inception 发布全球首个基于扩散模型的推理大模型 Mercury 2

人工智能初创公司 Inception Labs 近日宣布推出 Mercury2,这不仅是一个性能强劲的推理模型,更在底层架构上实现了一次大胆的“范式转移”。

该模型彻底弃用了目前主流的 Transformer 架构,转而采用扩散模型(Diffusion-based)来生成文本,试图打破传统大模型的性能瓶颈。

与传统模型逐个生成 Token(字符)的方式不同,Mercury2的工作原理更像是一位经验丰富的编辑。它不再是一个字一个字地往外蹦,而是能够同时对多个文本块进行全局优化和重写。这种并行处理的逻辑,让 Mercury2在处理复杂逻辑推理任务时,展现出了令人惊叹的速度优势。

根据 AIbase 获取的实测数据,在英伟达 Blackwell GPU 的驱动下,Mercury2的生成速度达到了惊人的每秒1009个 Token。在端到端延迟测试中,该模型仅需1.7秒即可完成响应,这一表现比谷歌的 Gemini3Flash 快了8倍以上,更是远超 Anthropic 的 Claude Haiku4.5。尽管速度极快,但在 GPQA Diamond 和 AIME 等权威推理基准测试中,它的质量依然能与当前顶尖的轻量化推理模型并驾齐驱。

在商业策略上,Inception Labs 采取了极具竞争力的定价方案,其输入与输出成本仅为同类竞品的四分之一。目前,Mercury2已正式开放 API 接口,并支持12.8万 Token 的超长上下文及工具调用功能。对于追求极致响应速度的语音助手、搜索系统及编程工具而言,这款“不走寻常路”的扩散推理模型无疑提供了一个极具吸引力的新选择。

概要:

🌀 架构底层革新:摒弃传统的逐字生成模式,采用扩散模型技术,支持同时对多个文本块进行全局优化,实现推理逻辑的质变。
极致性能表现:在最新硬件加持下实现秒级响应,生成速度破千 Token/s,延迟表现大幅优于 Gemini3和 Claude4.5。
💰 高性价比商用:以极低的价格成本挑战现有市场格局,支持长文本与 API 接入,重点瞄准延迟敏感型的企业级 AI 应用。

via AI新闻资讯 (author: AI Base)
OpenAI 语音 API 大进化:数字转录更精准,代理速度狂飙 40%

OpenAI 近日面向全球开发者推出了两项关键 API 更新,旨在大幅提升 AI 智能体在语音交互与复杂任务流中的性能表现。

在模型层面,全新的实时模型 gpt-realtime-1.5 及其配套音频模型正式登场,其核心目标是提高语音命令的可靠性。根据 OpenAI 内部测试数据,新模型在处理数字和字母的转录准确率上提升了约 10%,逻辑音频任务准确率提高了 5%,而指令执行的准确率也相应提升了 7%,有效解决了 AI 在听取关键短语或执行复杂语音指令时的偏差问题。

在架构层面,Responses API 现已支持 WebSocket 协议,这标志着 AI 通信模式的重大变革。与以往每次请求都必须重新传输完整上下文的模式不同,WebSocket 允许开发者建立持久连接,系统仅在产生新数据时进行增量发送。

OpenAI 指出,这一改进对于需要频繁调用大量工具的复杂 AI 代理尤为关键,能够将其运行速度直接提升 20% 到40%。这两项更新不仅让 AI 的“听力”更敏锐,更让其“行动”效率迈向了全新的台阶。

via AI新闻资讯 (author: AI Base)
豪掷 1000 亿美元!Meta 与 AMD 达成史上最大芯片订单,剑指英伟达霸权

就在宣布向英伟达采购数百万枚芯片的一周后,社交巨头 Meta 再次出手,与芯片巨头 AMD 签署了一项价值超过 1000 亿美元的多年期巨额协议。这一动作不仅刷新了 AI 芯片市场的交易纪录,更标志着 Meta 在构建算力护城河的道路上迈出了多元化布局的关键一步。

根据协议内容,Meta 将从 AMD 购买总计高达 6 吉瓦(GW)的 AI 计算能力。虽然双方未透露具体的产品型号组合,但外界普遍推测,AMD 最新的 MI450 GPU 以及 Helios 架构将成为 Meta 下一代 AI 基础设施的核心。首批定制化优化的芯片预计将于今年晚些时候开始交付,重点用于支撑 Meta 在生成式 AI 领域的基建扩张。

AIbase 了解到,这笔交易最引人注目之处在于其深度捆绑的“财务杠杆”。作为协议的一部分,Meta 有权根据 GPU 的实际出货量和财务目标的达成情况,获得多达 10% 的 AMD 股票权证。这种深度合作模式此前也曾出现在 OpenAI 与 AMD 的协议中,旨在确保供应链的稳定性和利益的高度一致。

AMD 首席执行官苏姿丰(Lisa Su)对此表示,这代表了行业内规模最大的 AI 部署之一,也让 AMD 真正站到了全球 AI 算力建设的中心舞台。对于 Meta 而言,创始人马克·扎克伯格正致力于在本年代内部署“数十吉瓦”级别的算力,此次引入 AMD 旨在摆脱对单一供应商的过度依赖,通过多元化算力资源,确保其庞大的社交帝国在人工智能竞赛中保持领先。

概要:

💰 千亿美金订单:Meta 与 AMD 签署价值超 1000 亿美元的多年供货协议,旨在获取 6 吉瓦的 AI 算力支持。
📈 股权激励深度绑定:协议包含基于业绩的股票权证,若交付达标,Meta 将持有 AMD 高达 10% 的股份。
⚔️ 打破算力垄断:在购入大量英伟达芯片后,Meta 积极引入 AMD MI450 系列 GPU,实现 AI 基础设施的多元化。

via AI新闻资讯 (author: AI Base)
英国 AI 独角兽 Wayve 获 10.5 亿美元融资,软银领投开启自动驾驶新赛道

英国自动驾驶初创公司 Wayve 近日宣布完成 10.5 亿美元的 C 轮融资。这笔巨额资金由日本软银集团领投,同时吸引了英伟达(NVIDIA)和微软(Microsoft)等科技巨头的深度参与,标志着欧洲 AI 领域迎来了有史以来规模最大的单笔融资之一。

与特斯拉或 Waymo 依赖高精地图和昂贵传感器的路径不同,Wayve 走的是一条“端到端”的具体化 AI(Embodied AI)技术路线。AIbase 了解到,Wayve 开发的模型就像人类驾驶员一样,能够通过摄像头数据进行实时学习和推理,从而在未曾见过的复杂城市街道中灵活穿梭。这种“纯视觉+大模型”的方案,被认为更具扩展性,能够更轻松地跨越不同城市甚至不同车型进行部署。

软银愿景基金此次重金押注,展现了其对“物理 AI”概念的坚定信心。软银高层表示,Wayve 的技术不仅限于乘用车,未来还将延伸至机器人等更多物理实体中。与此同时,英伟达的加入也为 Wayve 提供了强大的底层算力支持,而微软则继续通过 Azure 云平台为其提供大规模模型训练的基础设施。

目前,Wayve 已将其研发中心扩展至伦敦以外,并计划利用这笔资金加速其基础模型(AV2.0)的商业化落地。虽然自动驾驶行业曾一度陷入寒冬,但 Wayve 此次融资的成功,无疑为全球自动驾驶市场注入了一剂强心针,预示着基于生成式 AI 的驾驶技术正步入爆发前夜。

概要:

💰 英国史上最大募资:Wayve 完成 10.5 亿美元 C 轮融资,由软银领投,英伟达与微软跟投,刷新英国 AI 初创公司融资纪录。
🚗 端到端技术革新:摒弃传统的高精地图模式,采用纯视觉、端到端的 AI 架构,使车辆具备更强的泛化能力和“大脑”般的推理素质。
🌐 跨巨头生态协作:融资不仅带来了资金,还整合了英伟达的硬件优势与微软的云端算力,旨在加速“具体化 AI”在现实物理世界中的应用。

via AI新闻资讯 (author: AI Base)
为了开会不被骂,Uber 工程师竟背着老板开发了一个“AI 版 CEO”

面对严厉的老板,打工人总能想出一些出人意料的“生存套路”。近日,Uber 首席执行官达拉·科斯罗萨西(Dara Khosrowshahi)在接受播客采访时爆料,公司内部的工程师们为了确保向他汇报工作时万无一失,竟然专门开发了一个“AI 版达拉”。

这个有趣的工具被员工们亲切地称为“Dara AI”。科斯罗萨西透露,团队成员告诉他,很多小组在正式向他提交演示文稿(PPT)之前,会先对着这个“虚拟老板”进行模拟汇报。通过“Dara AI”的反馈,工程师们可以反复打磨幻灯片的逻辑,精准预判老板可能会提出的尖锐问题,从而在真正的会议室里表现得无懈可击。

科斯罗萨西对此不仅没有生气,反而对这种创新行为大加赞赏。他表示,目前的 Uber 本质上就是一个巨大的代码库,而工程师则是公司的建筑师。据他观察,目前 Uber 约 90% 的软件工程师已经在工作中使用 AI 工具,其中 30% 更是深度用户,甚至在利用 AI 重新构思公司的底层架构。

AIbase注意到,这种“用 AI 对付 AI 老板”的行为,侧面印证了 AI 在提升企业内部沟通效率方面的巨大潜力。科斯罗萨西感叹道,AI 对生产力的改变是他职业生涯中前所未见的。目前,这些工程师不仅在制造系统的“砖块”,更在通过 AI 像建筑大师一样思考公司的未来。

概要:

🤖 虚拟老板分身:Uber 工程师开发了名为“Dara AI”的聊天机器人,用于模拟 CEO 的思维方式,帮助员工在正式汇报前进行压力测试。
📈 生产力大爆发:CEO 透露公司九成工程师已将 AI 融入日常工作,AI 正在以前所未有的速度重塑公司的开发流程与架构思维。
💡 职场生存新姿态:员工利用 AI 精炼演示文稿并预判高层提问,这种“模拟考试”模式有效提升了跨层级沟通的质量与成功率。

via AI新闻资讯 (author: AI Base)
体积减半性能不减!西班牙 Multiverse 靠量子压缩术挑战 OpenAI

针对大语言模型(LLM)体积臃肿、部署成本高昂的痛点,西班牙 AI 初创公司 Multiverse Computing 正在通过独特的“压缩术”打破僵局,试图在企业级 AI 市场与 OpenAI 等巨头分庭抗礼。

核心技术:让60B 模型仅占32GB 空间

Multiverse 的核心竞争力源于其受量子计算启发的压缩技术 CompactifAI。凭借这一技术,该公司成功将其基于 OpenAI 原型(gpt-oss-120b)开发的 HyperNova60B 模型体积缩减了一半。

最新发布的 HyperNova60B2602 版本现已在 Hugging Face 开放免费获取。该模型大小仅为 32GB,在显著降低内存占用和延迟的同时,保持了与原版几乎持平的准确度。此外,新版本专门优化了推理成本较高的“工具调用”和“智能体编码”场景。Multiverse 声称,该模型在性能上已超越法国 AI 独角兽 Mistral AI 的旗舰模型 Mistral Large3。

欧洲 AI 的崛起:地缘政治与商业版图

与 Mistral 类似,Multiverse 正在成为欧洲自主 AI 技术的代表。目前,该公司的业务已横跨欧美,并赢得了博世(Bosch)、西班牙电力(Iberdrola)及加拿大银行等重量级企业客户。

这种“主权 AI”的定位使其获得了政府的大力支持。西班牙技术转型署(SETT)参与了其去年 2.15亿美元的 B 轮融资。凭借在整个人工智能技术栈提供自主解决方案的能力,Multiverse 正迅速填补市场对美国技术替代方案的需求。

估值跃升:迈向15亿欧元独角兽

尽管 Multiverse 对市场传闻保持谨慎,但据知情人士透露,该公司正洽谈一轮 5亿欧元的新融资,估值预计将突破 15亿欧元

虽然其年度经常性收入(ARR)据传约为1亿欧元,与 OpenAI 的200亿美元仍有巨大差距,但已逼近 Mistral 的4亿美元水平。随着2026年更多压缩模型计划开源,这家源自巴斯克地区的初创公司极有望成为西班牙首家 AI 独角兽。

via AI新闻资讯 (author: AI Base)
法官驳回xAI指控OpenAI窃取商业机密诉讼

美国加州一名联邦法官在周二驳回了埃隆·马斯克旗下AI创业公司xAI提出的一桩诉讼。该诉讼指控竞争对手萨姆·奥尔特曼旗下OpenAI窃取其商业秘密。旧金山地区法官林萍表示xAI目前未能提出足够的证据,证明OpenAI存在任何不当行为,但该公司可以重新提起诉讼。xAI在去年9月提起了这桩诉讼,声称xAI前员工在跳槽至OpenAI时,带走了与其Grok相关的源代码及其他机密信息。“值得注意的是,起诉书中缺少关于OpenAI自身行为的不当指控。xAI并未陈述任何事实,表明OpenAI曾诱使xAI的前员工窃取其商业机密,或这些前xAI员工在受雇于OpenAI之后使用了任何被窃取的商业机密,”林萍法官表示。

—— 凤凰网科技路透社

via 风向旗参考快讯 - Telegram Channel
↩️ 🤖 美国防部向 Anthropic 下达最后通牒,要求解除 Claude 模型安全限制


科技圈🎗在花频道📮:

美国国防部拟终止与 Anthropic 合作,因 AI 军事用途限制产生分歧 美国国防部正考虑终止与 AI 公司 Anthropic 的合作,主因是双方在模型使用权限上存在严重分歧。Anthropic 坚持禁止将 Claude 模型用于大规模监控及全自动武器系统,而国防部要求获得包括武器研发和战场行动在内的“所有合法用途”授权。 此前,Claude 在抓捕委内瑞拉领导人马杜罗的军事行动中被使用,引发公司对技术涉及实战打击的疑虑。尽管 OpenAI 和 Google 等竞争对手已同意放宽限制,但国防部承认,Anthropic…

🤖 美国防部向 Anthropic 下达最后通牒,要求解除 Claude 模型安全限制

美国国防部长皮特·赫格塞斯(Pete Hegseth)向 Anthropic 发出最后通牒,要求其在周五前取消 AI 模型 Claude 的安全限制,允许美军无限制访问。赫格塞斯在会谈中威胁称,若 Anthropic 拒绝,五角大楼将动用《国防生产法》强制干预,或将其列为“供应链风险”并切断所有合作。

目前 Anthropic 坚持禁止将模型用于大规模监视或自主武器开发。Claude 是目前美军执行机密任务唯一使用的 AI 模型,五角大楼已同步开始与 Google 和 OpenAI 洽谈替代方案。

Axios

🍀在花频道 🍵茶馆聊天 📮投稿

via 科技圈🎗在花频道📮 - Telegram Channel
通义千问Qwen3.5开源家族新增多款模型,并上线托管服务

近日,通义千问(Qwen)团队宣布其开源大模型家族Qwen3.5实现重要扩容,一次发布多款新模型,并同步上线了对应的生产级API服务。

本次新增的开源模型主要包括三款:

1. Qwen3.5-122B-A10B:该模型在复杂Agent任务(如多步推理、工具调用)中表现亮眼,进一步缩小了中小模型与顶尖闭源模型的性能差距。
2. Qwen3.5-35B-A3B:其性能已全面超越前代更大参数规模的Qwen3-235B-A22B等模型,体现了通过优化架构、数据与强化学习协同,而非单纯增加参数来提升智能的技术路径。
3. Qwen3.5-27B(Dense):一款主打“小尺寸、高能效”的模型,旨在降低大模型的使用门槛。

同时,面向企业级生产应用,阿里云百炼平台正式上线了Qwen3.5-Flash API。该服务是与Qwen3.5-35B-A3B对齐的托管版本,默认支持长达100万tokens的上下文,并内置了官方原生工具链,开箱即用,无需额外集成。

目前,开发者与研究人员可通过GitHub、Hugging Face或魔搭(ModelScope)社区下载上述开源模型进行研究与微调。企业用户可前往阿里云百炼平台直接体验Qwen3.5-Flash API服务。此举被视为阿里云推动大模型技术普惠与加速产业落地的重要举措。

via AI新闻资讯 (author: AI Base)
为了不被 Boss 问住,Uber 工程师直接做了一个“AI 版 CEO”!

在大多数公司,员工向首席执行官(CEO)汇报工作前往往充满压力;但在全球出行巨头 Uber,工程师们已经找到了“作弊”的新法宝:先让 AI 版的 boss 给自己提提意见。

“Dara AI”:高管会议前的首席陪练

Uber 首席执行官达拉·科斯罗萨西(Dara Khosrowshahi)近日在史蒂文·巴特利特的知名播客节目《CEO 日记》中透露了一个有趣的内幕:他的工程团队开发了一个名为 “Dara AI” 的聊天机器人。

这个 AI 并非噱头,而是工程师们不可或缺的“职场模拟器”。在正式向科斯罗萨西本人演示方案或提交幻灯片之前,团队会先对“Dara AI”进行演练。通过这种方式,工程师们能够预判真实 CEO 可能提出的挑战,从而提前打磨细节、完善逻辑。科斯罗萨西笑称,当演示材料最终呈现在他面前时,往往已经经过了“AI 级”的精心雕琢。

从“搬砖者”到“建筑师”的生产力革命

在科斯罗萨西眼中,Uber 的本质并非单纯的网约车或外卖公司,而是一个由代码构成的庞大帝国。他强调,工程师们才是这家公司真正的缔造者。

目前,AI 工具已经深度渗透进 Uber 的工作流:

● 全员普及:约 90% 的 Uber 软件工程师已在日常工作中使用 AI。
● 深度应用:其中约 30% 的人被定义为“高级用户”,他们不仅利用 AI 提高效率,更在借此重新构思公司的底层架构。

科斯罗萨西对此评价道:“工程师们既是生产系统砖块的工人,也是重新定义系统的建筑师。AI 以一种我从未见过的方式彻底改变了他们的生产力。”

硅谷高管的新思考

作为《商业内幕》此前曾关注过的细节,这一趋势反映了硅谷顶尖科技公司内部角色的转变。随着 AI 自动生成代码和优化方案的能力提升,顶尖工程师正从繁琐的重复劳动中解放出来。对于 Uber 而言,这种由 AI 驱动的“内部进化”,正在让这家拥有复杂算法的公司变得更加敏捷且不可预测。

via AI新闻资讯 (author: AI Base)
AI 芯片初创公司两天揽金 11 亿美元,挑战英伟达霸权

尽管外界对 AI 泡沫的担忧声不断,但风险投资家们对芯片赛道的热情依然高涨。本周刚到周二,三家 AI 芯片初创公司就已累计获得超过 11 亿美元的融资,显示出资本市场依然看好能够挑战英伟达统治地位的新兴力量。

在这波融资潮中,由前谷歌工程师创立的 MatX 公司拿下了 5 亿美元的大头。MatX 计划在今年晚些时候推出其首款芯片 MatX One。不同于 Groq 等公司侧重于推理,MatX 宣称其芯片能“通吃”预训练、强化学习和推理任务。该芯片采用了独特的架构,通过结合超高速的 SRAM 和大容量的 HBM 显存,试图在吞吐量和处理速度之间取得完美平衡。

与此同时,荷兰公司 Axelera 也宣布完成 2.5 亿美元融资。与直面英伟达竞争的 MatX 不同,Axelera 的目标更为务实,专注于低功耗的边缘计算领域,如计算机视觉和机器人。其最新的 Europa 芯片在功耗仅为 45 瓦的情况下,计算性能已能与英伟达 A100 持平,但功耗仅为其六分之一,展示了极高的能效比。

此外,SambaNova 也在这一轮融资中获得了 3 亿美元的注资,并宣布将与英特尔展开深度合作,在 AI 服务器中集成至强处理器。SambaNova 还披露了其下一代加速器 SN50,该产品预计今年晚些时候将率先部署在日本软银的数据中心。AIbase 观察到,这一系列巨额融资表明,定制化、高能效的 AI 硅片正在成为资本追逐的新风口。

概要:

💰 资本疯狂吸金:仅周二一天,AI 芯片领域就涌入 11 亿美元资金,MatX、SambaNova 和 Axelera 均获得巨额支持。
🚀 全能芯片挑战:谷歌系背景的 MatX 推出旨在兼顾训练与推理的通用加速器,通过 SRAM 架构追求每平方毫米最高算力。
🔋 边缘能效突破:荷兰初创公司 Axelera 专注低功耗边缘 AI,新芯片以不到六分之一的功耗实现了等同于 A100 的性能。

via AI新闻资讯 (author: AI Base)
拒绝AI训练“哑火”!Meta 开源 GPU 集群监控利器 GCM,精准捕捉硬件“隐形杀手”

随着 AI 模型参数量迈向万亿级别,支撑其训练的 GPU 集群已成为世界上最复杂也最脆弱的机器。为了解决大规模训练中的硬件不稳定性问题,Meta AI 研究团队近日宣布开源 GCM(GPU Cluster Monitoring)工具包。这不仅是一项技术发布,更是 Meta 为高性能计算(HPC)领域贡献的一套硬件管理蓝图。

在传统的 Web 开发中,服务器延迟可以通过简单的扩容解决,但在 AI 训练中,规则完全不同。一个拥有数千张显卡的集群中,哪怕只有一张 GPU 出现“静默故障”——即表面在线但性能大幅下降——就会像毒药一样污染整个训练任务的梯度,导致数周的算力白白浪费。Meta 开发 GCM 的初衷,正是要充当硬件底层遥测数据与上层编排逻辑之间的专业桥梁。

AIbase 了解到,GCM 深度集成了业界通用的任务调度器 Slurm。它能实现“任务级”的监控:工程师不再只能看到模糊的功耗波动,而是能精准定位到是哪个任务 ID 导致了性能下滑。通过这种实时的健康地图,系统可以在研究员发现问题前,自动识别并标记故障节点。

此外,GCM 引入了严苛的“前后置检查”机制。在任务开始前,它会确认网络与 GPU 是否可达;在任务结束后,则调用 NVIDIA DCGM 进行深度诊断。通过将复杂的底层硬件数据转化为标准化的 OpenTelemetry 格式,GCM 让运维团队能够像监控网页流量一样,直观地在 Grafana 等面板上看到 GPU 的“健康体检报告”。

概要:

🔍 锁定隐形故障:专门解决 GPU 表面在线但性能降级的“僵尸节点”问题,防止硬件故障污染 AI 模型训练数据。
🛠️ 深度作业关联:与 Slurm 调度系统无缝对接,支持将功耗、报错等指标直接归属到特定任务 ID,实现精准排障。
🩺 全程健康监测:通过任务启动前后的自动化体检,及时剔除受损硬件,确保昂贵的算力资源不被浪费。

via AI新闻资讯 (author: AI Base)
告别复制粘贴!Anthropic 发布企业级插件,Claude 深度植入 Office 办公全家桶

人工智能独创公司 Anthropic 近日迈出了进军企业级市场的关键一步,正式发布了名为“Cowork & Plugins for the Enterprise”的企业级工具包。这一动作标志着 Anthropic 开始直接深入微软与 OpenAI 的核心腹地,力图重新定义数字办公体验。

长期以来,企业员工在使用 AI 辅助工作时,往往需要频繁在对话窗口与办公软件之间进行“复制粘贴”。而此次 Anthropic 推出的新工具彻底打破了这一壁垒。现在,用户可以直接在微软 Excel、PowerPoint 以及 Slack 等常用软件中调用 Claude。这意味着 AI 不再是一个独立的侧边栏窗口,而是直接融入了实际的业务流,并在不同程序间保持对话上下文的连贯性。

AIbase了解到,Anthropic 并不打算构建一个封闭的生态。此次发布的插件系统具有开源且可移植的特性,企业可以根据财务分析、人力资源或设计等不同岗位的需求,定制专属的 AI 助手,而无需担心被单一厂商锁死。同时,通过新推出的连接器,Claude 能够安全地访问 Google Drive、Gmail 和 DocuSign 等平台中的实时企业数据。

目前,德勤、欧莱雅等行业巨头已经率先接入该系统,用于自动化内部流程。Anthropic 在官方公告中雄心勃勃地表示,如果说2025年 Claude Code 改变了编程方式,那么2026年,这种变革将覆盖所有知识工作领域。

概要:

🛠️ 原生嵌入办公流:Claude 现可直接植入 Excel 和 PowerPoint,用户无需离开当前应用即可完成数据处理与文档生成。
🔓 开源可定制架构:提供开源插件系统,支持企业针对不同岗位定制 AI 助手,且具备跨平台移植性,避免技术锁定。
🔗 实时数据全连接:通过全新连接器支持访问 Gmail 和 Google Drive 等数据源,助力企业在安全受控的环境下实现工作流自动化。

via AI新闻资讯 (author: AI Base)
IPO 进程加速!OpenAI 挖角 Roblox 顶级高管:任命首位首席人力资源官,开启全球扩员潮

随着 ChatGPT 全球用户量的持续爆发,AI 领军企业OpenAI正在加速其组织架构的升级与扩张。2026年2月25日,据格隆汇报道,OpenAI官方宣布任命 Arvind KC 为公司首任首席人力资源官(CHRO)。

这一重磅人事任命释放出明确信号:OpenAI正在从一家技术驱动的初创公司,向具备全球管理能力的科技巨头全面转型。

核心亮点:前 Roblox 高管坐镇“人才工厂”

背景显赫:Arvind KC 此前在元宇宙巨头Roblox担任高管,拥有管理大规模技术团队和应对快速增长业务的资深经验。

职能重塑:作为首席人力资源官,KC 将全面接管OpenAI的全球招聘、入职培训以及员工长期发展战略。

汇报条线:据OpenAI发言人透露,KC 将直接向首席战略官 Jason Kwon 汇报,体现了人力资源在公司战略中的核心地位。

背景扫描:资本与规模的双重跃迁

OpenAI此刻的高层扩编并非偶然,其背后是庞大的商业宏图:

新一轮融资:目前OpenAI正在进行新一轮融资谈判,预计融资金额将突破 1000亿美元,这不仅刷新了 AI 领域的融资纪录,也对其组织稳定性提出了更高要求。

上市倒计时:近期市场消息指出,OpenAI已采取实质性措施推进 上市计划。建立规范的 HR 体系和高管团队,是其冲刺 IPO、符合监管要求的必经之路。

行业观察:从“抢算力”到“抢管理”

格隆汇认为,在 AI 军备竞赛进入下半场后,人才的密度和管理的效能将成为胜负手。OpenAI通过挖角顶级互联网高管来强化其内部治理,显示出其试图在保持技术领先的同时,构建起能够支撑“万亿美金级”规模的企业生态系统。

via AI新闻资讯 (author: AI Base)
谷歌 TPU 元老“反向创业”:MatX 获5亿美元融资,誓言将 AI 性能拉升10倍

近日,由两位前谷歌硬件工程师联手创立的 AI 芯片公司 MatX 宣布完成 5亿美元的 B 轮融资。本轮融资由知名量化交易巨头 Jane Street 以及前 OpenAI 研究员 Leopold Aschenbrenner 创立的投资基金 Situational Awareness 共同领投。

MatX 的创始团队履历亮眼:首席执行官 Reiner Pope 曾负责谷歌 TPU 的 AI 软件开发,并在谷歌 PaLM 模型的效率优化中扮演关键角色;首席技术官 Mike Gunter 则是谷歌 TPU 硬件的首席设计师,拥有近30年的芯片架构经验。

剑指英伟达:追求10倍性能飞跃

与英伟达 GPU 兼顾游戏、图形和科学计算的“全能”定位不同,MatX 采取了极致的专一化策略。其核心目标是开发专为**大语言模型(LLM)**优化的处理器。该公司声称,通过去掉 GPU 中冗余的计算模块,其芯片在处理 Transformer 架构模型时,速度有望比英伟达现有 GPU 快10倍

这种“以少胜多”的策略旨在解决目前 AI 算力的成本瓶颈。本轮融资的参与者还包括 Marvell Technology、NFDG、Spark Capital,以及 Stripe 的联合创始人 Collison 兄弟。

2027年正式出货,估值逼近50亿美元

尽管 MatX 尚未公开最新估值,但其2024年 A 轮融资时的估值已超过3亿美元。参考其直接竞争对手 Etched 近期以50亿美元估值完成同等规模融资的市场表现,业界普遍看好 MatX 的市场潜力。

目前,MatX 已确立与**台积电(TSMC)**的生产合作关系,计划利用这笔新资金推进芯片的流片与量产,并预计在 2027年正式开始向全球 AI 实验室出货。

via AI新闻资讯 (author: AI Base)
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]