https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
腾讯混元Hy3preview上线两周Token调用量增至10倍,位居OpenRouter周榜第一

腾讯混元大模型近日公布Hy3preview上线两周后的运行数据,显示该模型在开发者生态中呈现出爆发式增长态势。 自发布以来,Hy3preview的Token调用总量已达上一代模型Hy2的10倍以上。数据监测显示,代码编写与智能体构建成为核心增长引擎,驱动腾讯内部WorkBuddy、Codebuddy及Qclaw等应用端的总调用量增幅突破16.5倍。

除了内部生态的强劲表现,Hy3preview在外部开发者市场同样占据领先地位。根据OpenRouter公开的周度数据显示,该模型在过去一周内不仅摘得Token调用量总榜与市场占有率的“双料冠军”,在编程辅助和工具调用(Tool Call)等高阶场景下的调用热度亦位居榜首。

腾讯混元负责人指出,Hy3preview研发初衷旨在强化实用性,通过在OpenRouter开启限免活动,团队成功在真实复杂场景中收集到了大量极具价值的开发者反馈。这种基于开源社区与开放平台的众测模式,正成为大语言模型(LLM)快速迭代的关键路径。

行业观察认为,Hy3preview在代码与工具调用场景的突破,标志着国产大模型正在从单纯的对话能力向具备生产力属性的“行动者”转型。随着调用量的指数级增长,海量真实数据反馈将进一步优化模型的逻辑推理与任务执行边界,加速国内大模型在B端应用及自动化工作流中的渗透效率。

via AI新闻资讯 (author: AI Base)
谷歌Gemma4 推理速度狂飙 3 倍,离线大模型时代真的来了

在开源模型领域投下“重磅炸弹”仅数周后,谷歌再次为其最强开源模型Gemma4 注入了强效“助推剂”。当地时间 5 月 5 日,谷歌正式发布了针对Gemma4 系列模型的多Token预测(MTP)起草器。这一技术突破利用推测解码架构,在不牺牲输出质量和逻辑能力的前提下,将模型的推理速度最高提升了 3 倍。

作为目前全球最受关注的开源模型之一,Gemma4 在发布后的短时间内下载量便已突破 6000 万次。而此次更新的核心目标,正是为了解决大语言模型在实际应用中长期存在的推理瓶颈,进一步压榨计算资源的效能。

技术拆解:如何实现“未卜先知”的推理加速?

传统的语言模型推理往往受限于显存带宽。简单来说,处理器在生成文本时,需要耗费大量时间将数百亿个参数从显存搬运到计算单元,这种“搬运”速度远低于计算速度,导致硬件资源在大部分时间处于闲置状态,进而产生明显的回复延迟。

为了攻克这一痛点,谷歌引入了推测解码技术。其工作原理可以理解为一种“主从配合”模式:系统会将Gemma 4 31B等重型目标模型与轻量级的MTP起草器配对。起草器会利用闲置算力提前预测未来可能出现的多个Token(字符),随后由性能更强的主模型进行并行验证。一旦预测匹配,模型就能在单次计算中直接确认整个序列,从而大幅缩短了文本生成的时间。

实测表现:Apple Silicon与消费级显卡受益显著

根据官方公布的测试数据,这种加速效果在本地设备上表现尤为亮眼。在Apple Silicon芯片环境下,当batch sizes设定在 4 至 8 之间时,Gemma 4 26B模型的本地运行速度提升了约2. 2 倍。

这意味着,开发者现在可以在个人电脑或普通的消费级显卡上,更流畅地运行复杂的离线编程助手或智能体工作流。此外,由于推理效率的提升,边缘设备的能耗也随之显著降低,为移动端AI应用的普及扫清了障碍。

AI应用的边界再次拓展

此次技术更新主要针对低延迟需求极高的场景,如即时聊天机器人、自动化编程工具以及各类自主智能体。谷歌通过MTP起草器证明,即便在资源受限的硬件环境下,开发者依然能够部署最先进的语言模型,且无需在响应速度和计算精度之间做“二选一”。

随着推理成本和门槛的进一步降低,Gemma4 及其配套技术的演进,正将AI从云端推向更广泛的个人计算终端。

via AI新闻资讯 (author: AI Base)
千问PC端上线AI语音输入,各类应用里“开口”直接用千问

5月7日,千问在PC端上线AI语音输入能力,用户通过快捷键即可在各类桌面应用中直接使用。千问语音输入法支持对口语内容去语气词、纠错、格式化整理等,能够基于上下文智能回复,还可直接下达创作、问答、翻译等指令。

千问语音输入展现出极强的语义解析能力。以一段夹杂口误的口语为例:“王总,会议定在两点……不对三点,地点在老会议室,记得带那份……市场调研报告。”千问可实时过滤“那个”、“额”等冗余词并修正口误,直接输出结构化文本:“王总,会议定在下午三点,地点为老会议室,请带上市场调研报告。”

对口语化表达的重构不仅限于文字精简,更在于逻辑纠错与结构化整理。用户在撰写周报或纪要时,即便表达逻辑跳跃,千问也能基于上下文进行语义归纳。例如,用户散乱地口述一段工作进展,千问可自动将其整理为要点清晰的结构化周报。

在进行办公或者创作时,用户无需离开编辑器就可以通过语音指令使用千问。比如,若想要在文中插入去年GDP数据,直接说“帮我插入2025年全国GDP数据”。在浏览网页或者阅读专业英文论文时,遇到不清楚的地方,划选后说“帮我解释一下”“帮我翻译一下”,千问会自动解释或者翻译。

在钉钉、微信或者邮件的场景,用户也可要求千问根据上下文自动生成回复。例如,要回复客户的英文邮件,用户中文简单口述要求,千问即可在输入框生成格式正确的英文邮件回复。

目前,千问语音输入法功能已经全面开放,所有用户可以通过千问PC端免费使用这一功能。

via AI新闻资讯 (author: AI Base)
OpenAI 联合英伟达等巨头发布 MRC 协议,重塑大规模 AI 训练网络架构

昨日,OpenAI 正式发布公告,宣布联合 AMD、博通(Broadcom)、英特尔、微软及英伟达(NVIDIA)等五大行业巨头,共同推出多路径可靠连接(MRC)协议。该协议旨在解决大规模 AI 训练中极易出现的网络延迟与故障问题,并已通过开放计算项目(OCP)向全球行业开源。

击碎“单点故障”:从三层架构到两层设计的跨越

在传统的 AI 模型训练过程中,网络拥塞或单条链路的微小故障,往往会像推倒多米诺骨牌一样,导致数万块 GPU 进入闲置等待状态,造成巨额的算力浪费。

为了从根本上提升系统的韧性,MRC 协议引入了多平面网络设计。它巧妙地将单一的800Gb/s 接口拆分为多个更小的链路,通过这种结构优化,系统仅需两层交换机即可支撑约13.1万块 GPU 的庞大集群。相比传统的双层或四层架构,这一改动不仅大幅减少了物理组件数量和能耗,还显著降低了建设成本。

流量调度新方案:数据包“喷淋”与微秒级自愈

除了架构上的精简,MRC 在流量分配上也展现了全新思路。它采用了自适应数据包喷淋技术,打破了传统的单路径传输模式,将任务数据包打散并分发至数百条路径进行并行传输。即便数据包在传输过程中乱序到达,接收端也能精准重组,从而有效避开了核心网络的局部拥塞。

在网络控制方面,MRC 抛弃了复杂的动态路由协议(如 BGP),转而采用 SRv6源路由技术。这意味着发送端可以直接指定路径,交换机只需执行简单的静态转发。这种设计将网络故障的恢复时间从以往的“秒级”直接压缩到了“微秒级”,让系统在面对链路抖动时几乎能做到“无感自愈”。

落地实测:超级计算机的“防抖”利器

目前,MRC 协议已在英伟达 GB200超级计算机以及甲骨文(Oracle)云基础设施中投入实际应用。实测数据证明,在真实的训练场景下,即使面临链路抖动或交换机重启等突发情况,MRC 也能自动绕过故障点,确保复杂的训练任务不被中断。

这一协议的开源,标志着 AI 基础设施正从“暴力堆料”向“精细化架构”转型。通过巨头间的协作,AI 训练网络正变得更加坚韧、高效且灵活。

via AI新闻资讯 (author: AI Base)
Anthropic 联手 SpaceX 豪掷算力,Claude 付费用户迎来“无限速”时代

近日,人工智能领域领军企业 Anthropic(下称“A 社”)宣布了一项重磅消息:得益于算力资源的重大突破,所有 Claude 付费订阅用户的 5 小时使用配额速率将正式翻倍。这意味着 Claude Code Pro、Claude Max、Claude Team 以及企业版用户,在原本的使用周期内将获得两倍的响应速度。

此次升级的核心不仅在于速率的提升,更在于“高峰期限制”的终结。此前,为了平衡服务器负载,付费用户在用量高峰时段常会遭遇速率下调。而现在,随着算力瓶颈的消解,这一限制已被彻底取消。同时,针对开发者群体的 Claude Opus API 调用速率也得到了大幅上调,旨在为高强度开发场景提供更稳定的支持。

算力背后的“跨界援军”:马斯克的 Colossus 算力集群

A 社此次能够如此“大方”地回馈用户,底气源自与 SpaceX 签署的一项深度合作协议。据悉,由于埃隆·马斯克旗下的 xAI 人工智能数据中心此前存在利用率冗余,这些顶尖的硬件资源已通过 SpaceX 平台转租给 A 社使用。

目前,A 社已正式接入位于美国孟菲斯的 Colossus 1 超级计算中心,并获准使用其全部 300 兆瓦的计算能力。这一算力“活水”的引入,精准解决了 Claude Code 因用户量激增而长期面临的计算资源荒,也让此前被迫采取的种种“节流”措施成为历史。

从地面到太空:未来将启用轨道 AI 数据中心

更令人瞩目的是,A 社与 SpaceX 的合作并未止步于地面。双方已开始联合研发数 GW 规模的“轨道人工智能数据中心”。尽管这一项目目前仍处于起步阶段,但其愿景极其宏大:SpaceX 计划在未来几年内,利用太空环境中无穷尽的太阳能资源,为这些漂浮在轨道上的服务器提供持续且低成本的电力供应。

这种从物理层面上寻找解决方案的思路,不仅展示了 A 社维持产品快速扩张的决心,也预示着人工智能竞争的下半场可能将从传统的地面机房转向广袤的太空。

对于普通订阅用户而言,最直观的改变已经发生——更流畅的交互、更高的配额、以及不再受限的高峰时段,Claude 的使用体验已迈向一个全新的阶段。

via AI新闻资讯 (author: AI Base)
↩️ #Tip #Claude


Agent Copilot:

#Update #Claude Anthropic 宣布,由于与 SpaceX 合作将大幅提升算力,Claude Code 的配额现已提高: - Pro、Max、Team 的 5 小时 Claude Code 配额翻倍 - 高峰时段的额度限制移除 - 大幅提升 Opus 的 API 请求频率限制 官方文档:https://www.anthropic.com/news/higher-limits-spacex

#Tip #Claude

这一变化并不涉及对每周配额的调整。

Claude Code 团队成员 Thariq 宣称在新的算力正式投入使用后会考虑调整周配额。

via AI Copilot - Telegram Channel
OpenAI 巨资布局 AI 算力 500 亿美元投入引发行业军备竞赛

在快速发展的人工智能领域,OpenAI 近日宣布将投入高达 500 亿美元用于提升计算资源,这一消息在相关法律案件中由 OpenAI 总裁 Greg Brockman 披露。这一巨额投资预计将在 2026 年实现,彰显了当前 AI 大模型训练和推理对算力需求的激增。

数据表明,OpenAI 在算力上的支出与 2017 年的约 3000 万美元相比,已经增长了数千倍。这一转变标志着生成式 AI 从早期的实验阶段走向大规模商业化,需求迅猛增长。如今,ChatGPT 等产品的运行、模型训练以及企业 API 服务都依赖于庞大的 GPU 集群和云计算基础设施。

业内专家指出,这 500 亿美元的投资不仅包括模型训练费用,还涵盖了全球用户日常调用的推理成本以及对更大规模模型持续研发的投入。随着用户数量不断增加,AI 公司的 “算力账单” 也在同步攀升。

更令人瞩目的是,OpenAI 还透露了其长期发展目标:到 2030 年,累计计算投入可能高达 6000 亿美元。这意味着,未来几年,AI 行业的竞争将从算法能力转向算力资源及基础设施的控制权。

与此同时,整个行业正步入 “算力军备竞赛”,包括微软、谷歌、亚马逊等科技巨头都在大规模扩建数据中心,争相锁定 GPU 供应,以确保在下一代 AI 竞争中保持领先。分析人士认为,这一趋势将进一步推高全球 AI 基础设施的投资规模,为行业带来新的发展机遇。

via AI新闻资讯 (author: AI Base)
马斯克:xAI将更名为SpaceXAI 不再作为独立公司存在

5月7日,马斯克在X平台发文宣布,旗下人工智能公司xAI将终止独立运营,整体并入SpaceX,并正式更名为SpaceXAI。

据报道,马斯克此番表态的背景,是回应特斯拉投资者关于SpaceX与Anthropic公司签署协议的帖子。该投资者透露,Anthropic将接入SpaceX Colossus 1大型数据中心逾300兆瓦算力资源,并表示已“表达了与SpaceX合作开发数吉瓦轨道AI算力的意向”。

马斯克的核心理由是地球无法满足未来AI的能源需求。他预测,两到三年内,生成式AI计算的最低成本将出现在太空中。他认为,AI对耗电数据中心的依赖给电网和环境带来压力,解决方案是将问题转移到地球之外。

今年2月,SpaceX已通过全股票交易方式收购xAI,该交易对SpaceX的估值为1万亿美元,xAI的估值为2500亿美元,创下史上估值最高的企业并购案纪录。合并后,xAI和社交平台X被整合至SpaceX旗下,并计划于今年年中启动IPO。尽管xAI当时向员工表示短期内不会更名,但马斯克今日的最新表态明确将启用SpaceXAI新名称。合并后的xAI强调,公司使命保持不变,每股估值也将维持原有水平。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:凤凰网科技)
马斯克回应与Anthropic合作:若从事危害人类行为 将保留收回算力权利

在SpaceX与Anthropic达成算力合作后,马斯克在X平台上回应网友询问时表示,SpaceX和特斯拉将为那些采取正确措施确保人工智能造福人类的公司提供计算资源,而如果这些公司的人工智能从事危害人类的行为,其将保留收回计算资源的权利。

一位网友询问:“你们未来是否计划将多余的算力出租,还是SpaceX和特斯拉会全部自用?”

马斯克回应称:“就像SpaceX以公平的条款和价格为竞争对手发射数百颗卫星一样,我们将为那些采取正确措施确保人工智能造福人类的公司提供算力支持。

如果这些公司的人工智能从事危害人类的行为,我们保留收回算力的权利。

我们将竭尽全力,为所有人创造一个富足美好的未来。

人非圣贤,孰能无过,我们也会犯错,但我们会始终迅速采取行动解决问题。”

美国科技亿万富翁埃隆·马斯克周四在X上回应网友一条关于富人是否支付了公平税额的帖子时称,包括遗产税在内,他最终可能要缴纳数万亿美元的税款。

马斯克在帖子中写道:“我曾一年纳税超过100亿美元(2021年),比历史上任何人都多。如果我行使并出售股票期权,联邦和州所得税的综合税率约为45%(我在加州居住的每一天都还要缴纳加州的税款)。此外,我去世后,我的遗产还要缴纳40%的税。总的来说,我最终可能要缴纳数万亿美元的税款。”

via cnBeta.COM - 中文业界资讯站 (author: 稿源:环球市场播报)
OpenAI联合多家巨头发布MRC开放网络协议

5月6日,人工智能公司OpenAI宣布与AMD、博通、英特尔、微软以及英伟达达成合作,正式发布名为“多路径可靠连接”(Multipath Reliable Connection,MRC)的新型开放网络协议。该协议旨在提升大型AI训练集群的运行速度与可靠性,通过减少GPU的闲置浪费,显著优化计算效率。目前,MRC已全面部署于OpenAI公司所有用于训练前沿模型的大型超级计算机中,包括位于美国得克萨斯州阿比林的甲骨文云基础设施站点以及微软的Fairwater超级计算机集群。

—— 界面新闻

via 风向旗参考快讯 - Telegram Channel
Claude付费订阅5小时配额速率翻倍 高峰期速率限制取消

A 社日前宣布所有 Claude Code 付费订阅用户的 5 小时使用配额速率全部翻倍,同时取消 Claude Code Pro 以及 Claude Max 账户的高峰时段速率限制,以及适用于开发者的 Claude Opus API 调用速率也大幅度提高,这些变更的根本原因是 A 社已经找到新的算力集群。

此前就有消息称埃隆马斯克旗下的 xAI 人工智能数据中心利用率太低,因此这些数据中心可能会将算力租借给其他公司,此次 A 社获得的算力支持就是来自 xAI 位于美国孟菲斯的超级计算中心,具体来说 A 社将可以使用 Colossus 1 数据中心全部的 300 兆瓦计算能力。

由于 Claude Code 使用增长速度极快,这导致 A 社长期以来都面临计算能力严重不足的问题,为了缓解算力不足 A 社工程师想出各种办法结果还给开发者带来不好的体验,所以最终解决办法还是要找到更多算力,这也有助于 A 社产品继续保持快速扩张。

xAI (以及 X/Twitter) 目前都已经被合并到 SpaceX 公司,所以此次 A 社是与 SpaceX 签订的合作协议,后续 A 社还将与 SpaceX 合作开发数 GW 的轨道人工智能数据中心,不过现阶段轨道人工智能数据中心还在起步阶段,SpaceX 的目标是在未来几年利用太空无穷尽的太阳能资源为轨道数据中心提供持续电力供应。

在获得算力支持后 A 社也非常大方的直接提高 Claude 付费订阅用户的配额速率,如本文开头所说,Claude Code 5 小时使用配额直接翻倍,这项政策适用于 Claude Pro、Claude Max、Claude Team 以及基于席位的企业版套餐。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:蓝点网)
Arm 预计明年 AI 芯片销售将达 20 亿美元

英国半导体公司 Arm 近期宣布,预计其首款自主研发的人工智能(AI)芯片将在明年实现 20 亿美元的销售额。这款芯片在市场上获得了强烈的需求,标志着 Arm 在 AI 领域的重要进展。作为软银支持的公司,Arm 在全球半导体市场中占据了重要位置,其技术广泛应用于各种电子设备中。

这款新芯片的推出正值 AI 技术迅速发展的时期,多个行业对高效能计算需求日益增长。Arm 的首席执行官表示,该芯片不仅性能卓越,还具备出色的能效,能够满足客户对高性能计算的需求。这也使得 Arm 在竞争激烈的 AI 芯片市场中脱颖而出。

根据 Arm 的预测,这款 AI 芯片将为公司的整体收入增长提供重要支撑。随着越来越多的企业和机构开始重视人工智能技术,Arm 的市场前景显得尤为乐观。公司表示,已经与多家科技巨头达成合作,进一步推动芯片的普及应用。

Arm 的这一进展不仅对自身发展具有重大意义,同时也为整个半导体行业注入了新的活力。业界人士普遍认为,随着 AI 技术的不断进步,未来芯片的需求将持续增加,而 Arm 的积极布局将有助于其在未来的竞争中占据更为有利的地位。

划重点:

🌟 Arm 预计明年将实现 20 亿美元的 AI 芯片销售额。

🤖 新款 AI 芯片获得强烈市场需求,性能和能效突出。

📈 与多家科技巨头合作,推动芯片在各行业的应用。


via AI新闻资讯 (author: AI Base)
Snap 与 Perplexity 的 4 亿美元合作关系 “友好结束”

近日,Snap 在其季度财报中透露,公司人工智能搜索引擎 Perplexity 的合作协议已于第一 “友好结束”。这项合作最初在去年 11 月宣布,Perplexity 计划在一年内向 Snap 支付 4 亿美元的现金和股权,以便将其 AI 搜索引擎直接整合到 Snapchat 中。

Snap 表示,双方在未能达成广泛推广方案的情况下,决定结束合作。尽管 Perplexity 的整合测试已在部分用户中进行,Snap 在今年 2 月曾表示,尚未就更大范围的推广达成一致。

Snap 首席执行官埃文・斯皮格尔在最初的公告中提到,这项合作反映了公司利用 AI 技术提升 Snapchat 内容发现的愿景,并期待未来与更多创新伙伴合作。

此外,Snap 在财报中还公布了 Snapchat 的用户增长数据:全球日活跃用户 DAU)同比增长 5%,达到 4.83 亿;月活跃用户(MAU)也增长 5%,达到了 9.65 亿。公司认为,这一增长得益于应用中的新功能,包括 Snap Map 和 AR 滤镜。

斯皮格尔在新闻稿中指出:“在第一季度,我们的日活跃用户回归增长,营收加速增长,利润率扩大,并实现了强劲的自由现金流。我们将继续专注于有纪律的执行,同时投资于智能眼镜等长期机会,期待在 6 月 16 日的 AWE 大会上分享更多信息。”

值得注意的是,Snap 在四月份曾宣布裁员约 16%,这影响到约 1000 名全职员工,裁员原因是由于 AI 技术的进步。

划重点:

🌟 Snap 与 Perplexity 的 4 亿美元合作已 “友好结束”,未能就推广达成一致。

📈 Snapchat 全球日活跃用户同比增长 5%,月活跃用户也增长 5%。

💼 Snap 于四月裁员约 16%,影响约 1000 名员工,原因是 AI 技术进步。



via AI新闻资讯 (author: AI Base)
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]