https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
Anthropic CEO解释为何会出现算力不足
人工智能公司 Anthropic 首席执行官达里奥·阿莫代伊表示,他的公司曾试图为10倍的增长做规划。但按年化计算,第一季度收入和使用量增长了80倍,他表示这解释了为什么一直难以跟上需求。“这就是我们在计算能力方面遇到困难的原因,”阿莫代伊周三在旧金山举行的公司开发者大会上表示。阿莫代伊补充说,公司正在尽可能快地努力以提供更多容量,并将尽快把这些计算能力交付给你们。阿莫代伊在台上说:“软件工程师是采用新技术最快的人群。这预示了整个经济将如何运作,以及经济将如何被人工智能改变。”
—— CNBC
via 风向旗参考快讯 - Telegram Channel
人工智能公司 Anthropic 首席执行官达里奥·阿莫代伊表示,他的公司曾试图为10倍的增长做规划。但按年化计算,第一季度收入和使用量增长了80倍,他表示这解释了为什么一直难以跟上需求。“这就是我们在计算能力方面遇到困难的原因,”阿莫代伊周三在旧金山举行的公司开发者大会上表示。阿莫代伊补充说,公司正在尽可能快地努力以提供更多容量,并将尽快把这些计算能力交付给你们。阿莫代伊在台上说:“软件工程师是采用新技术最快的人群。这预示了整个经济将如何运作,以及经济将如何被人工智能改变。”
—— CNBC
via 风向旗参考快讯 - Telegram Channel
谷歌今天正式推出了 Chrome 浏览器的 148 版本更新,此次更新引入了众多新功能,尤其是在 AI 驱动的自动填充和表单工具方面的显著改进。用户现在可以在地址栏或新标签页直接询问 AI 智能体,AI 会聚合相关信息,并以自然语言回答复杂问题,用户还可以通过澄清提示进行追问。
在自动填充方面,Chrome 148 允许用户在同意的情况下,通过 AI 模式协助填写信用卡号码和地址。此外,内置的 Gemini 聊天机器人功能扩展至亚太地区的 49 个国家和地区,进一步提升了用户体验。在 Android 设备上,Chrome 新增的增强型自动填充功能能够理解网页表单,并根据用户以往填写的方式自动填充相应字段。还新增了支持存储在谷歌钱包中的政府标识符的自动填充功能,例如驾照号码和护照号码。
在用户界面方面,Chrome 148 对个人资料创建界面的视觉设计进行了调整,但功能保持不变。此外,Android 版本新增了一项设置,允许网站使用近似位置而非精确位置,这对于保护用户隐私具有积极意义。ChromeOS 也迎来了新变化,现支持垂直标签栏的功能。
在开发者工具方面,此次更新提升了对 HTTP/3 的支持,并引入了一个新的 Prompt API,用于与大型语言模型交互。开发者们可以利用该 API 处理文本、图像和音频输入,并获取结构化结果。同时,CSS 和媒体元素的加载优化也得到了改进,提升了浏览器性能。
安全性方面,Chrome 148 修复了 127 个漏洞,其中包括三个被评为严重级别的安全问题。这些漏洞的修复将增强浏览器的安全性,保护用户数据不受攻击。谷歌还为发现这些漏洞的研究者支付了总计约 138,000 美元的奖励,展现了其对安全研究的重视。
划重点:
🔍 新增 AI 自动填充功能,支持信用卡和地址的智能填写。
📱 Android 版 Chrome 引入增强型自动填充和位置隐私设置。
🔒 修复 127 个安全漏洞,确保用户数据安全。
via AI新闻资讯 (author: AI Base)
在全球机器人领域持续升温的背景下,初创团队 Genesis AI 近日发布了其首个机器人基础模型——GENE-26.5。这一模型的问世,标志着通用机器人技术在处理高难度、非结构化任务上取得了实质性突破。
在最新公开的演示中,搭载该模型的机器人表现出了惊人的灵活性与自主性。无论是需要精细力度控制的单手打蛋、考验逻辑与空间感知能力的解魔方,还是对节奏和精准度要求极高的弹钢琴,甚至是日常厨房中的切番茄任务,机器人均能精准完成。值得关注的是,这些完全不同的复杂技能并非由多个专项模型堆砌而成,而是由同一个底层基础模型驱动,且整个过程无需人工干预,实现了真正的全程自主运行。
技术层面的领先源于团队深厚的研发积淀。Genesis AI 核心团队此前曾发布过业内知名的 Genesis 物理引擎。凭借这一技术优势,该项目实现了从硬件设计、控制栈开发、数据采集到模型训练及仿真评估的全链路全栈自研。这种“闭环”研发模式极大地提高了学习效率:据团队透露,大多数复杂的动作技能,仅需不到一小时的任务专属机器人数据即可完成训练。
资本市场对这一技术路径表现出了极高的期待。早在2025年中旬,该团队便凭借前瞻性的技术架构获得了1.05亿美元的种子轮融资,创下了行业内种子轮融资的规模纪录。
Genesis AI 团队表示,目前的成果仅仅是个开始。随着基础模型能力的不断进化,他们计划在近期公布首个全身通用机器人。这预示着机器人可能很快就能走出实验室,在更复杂的真实世界场景中展现出类人的操作能力。
via AI新闻资讯 (author: AI Base)
谷歌正在开发“AI Ultra Lite”订阅层级
目前,谷歌的订阅AI产品在AI Pro和AI Ultra层级之间存在相当大的差距。但证据表明,谷歌可能正在悄悄开发介于两者之间的新选项:AI Ultra Lite。由于AI Pro每月费用为20美元,而原版AI Ultra费用为250美元,因此AI Ultra Lite的价格很可能会落在两者之间的某个位置。无论其最终价格如何,这可能意味着它可能提供AI Pro所提供的所有功能以及原版AI Ultra所提供的许多功能,但可能使用限制稍微低一些。例如,它可能提供深度思考推理模式的使用权限,但不提供Project Genie。谷歌还正在开发一个新页面,用于追踪Gemini中明确的人工智能使用限制以及你在任何给定时间点离达到该配额有多近。
—— Androidauthority
via 风向旗参考快讯 - Telegram Channel
目前,谷歌的订阅AI产品在AI Pro和AI Ultra层级之间存在相当大的差距。但证据表明,谷歌可能正在悄悄开发介于两者之间的新选项:AI Ultra Lite。由于AI Pro每月费用为20美元,而原版AI Ultra费用为250美元,因此AI Ultra Lite的价格很可能会落在两者之间的某个位置。无论其最终价格如何,这可能意味着它可能提供AI Pro所提供的所有功能以及原版AI Ultra所提供的许多功能,但可能使用限制稍微低一些。例如,它可能提供深度思考推理模式的使用权限,但不提供Project Genie。谷歌还正在开发一个新页面,用于追踪Gemini中明确的人工智能使用限制以及你在任何给定时间点离达到该配额有多近。
—— Androidauthority
via 风向旗参考快讯 - Telegram Channel
腾讯混元近日发布最新数据,表明自 Hy3 预览版上线以来,其 Token 调用量不断攀升,目前已达前一代模型 Hy2 的十倍之多。这一显著增长主要发生在代码及智能体应用场景中,特别是在腾讯的 WorkBuddy、Codebuddy 和 Qclaw 等应用中,Token 调用量的增幅更是超过了 16.5 倍。
数据显示,Hy3 预览版在过去一周内的 Token 调用量达到了 3.66 万亿,荣获周榜总榜及市场占有率的双第一。在编程和工具调用的场景下,Hy3 预览版同样表现不俗,保持着榜首位置。这一版本是腾讯混元在技术重构后推出的首个模型,采用了快慢思考融合的混合专家架构,拥有 2950 亿的总参数量和 210 亿的激活参数量,并支持 256K 的长上下文窗口。
目前,Hy3 预览版已全面融入腾讯的多个产品中,包括腾讯元宝、QQ 浏览器和微信读书等多个业务场景。同时,OpenRouter 发布的调用量排名中,前五名的应用均为国际主流的智能体和代码类应用,进一步证明了 Hy3 预览版的市场影响力。
这一系列数据不仅展示了腾讯在 AI 领域的最新进展,也引发了广泛的关注与讨论。随着更多用户和开发者的加入,Hy3 预览版有望继续推动智能应用的发展。
划重点:
🌟 Hy3 预览版上线两周,Token 调用量已达前一代模型的十倍。
📈 在代码和智能体应用场景中,Token 调用量增长显著,部分应用增幅超过 16.5 倍。
🏆 Hy3 预览版在过去一周的 Token 调用量达 3.66 万亿,成为市场占有率的双第一。
via AI新闻资讯 (author: AI Base)
AI记账软件调侃用户买衣服像“寿衣”,官方致歉并紧急整改
近日,一起智能软件回复失当事件引发了广泛关注。一名用户在社交平台发文称,在使用“飞鸭AI记账”App记录一笔为父亲购买衣服的开支时,遭遇了记账AI的恶意调侃。当用户输入消费金额为 159 元后,AI不仅没有正常履行记账职责,反而发表不当言论,称该衣服款式形似“寿衣”。
在随后的交互中,AI并未意识到冒犯,反而继续附和其词,这种缺乏共情心且带有侮辱性的回复随即激怒了用户。该用户当即决定注销会员并要求退款。
针对这一恶劣的交互体验,软件运营方于 5 月 6 日作出正式回应。客服人员解释称,此次不当回复并非人为干预,而是由于AI话术库存在逻辑漏洞。目前,技术团队已经针对相关模型进行了紧急修复,并进一步加强了AI对话场景的监管与限制,防止类似敏感且不敬的表述再次出现。
5 月 6 日下午,官方正式发布《致歉信》,公开承认平台在AI边界管控及文化禁忌理解方面的严重缺失。官方表示,AI模型未能识别特定语境下的情感底线,平台愿意承担全部责任。
在处理方案中,官方明确表示将通过屏蔽敏感词汇、强化全场景审核机制等手段进行深度整改。此外,对于当事用户在注销会员过程中遇到的流程疏忽,官方也作出了澄清,并承诺将优化退款服务流程,向受影响用户表达诚恳歉意并提供相应的补偿措施。
via AI新闻资讯 (author: AI Base)
近日,一起智能软件回复失当事件引发了广泛关注。一名用户在社交平台发文称,在使用“飞鸭AI记账”App记录一笔为父亲购买衣服的开支时,遭遇了记账AI的恶意调侃。当用户输入消费金额为 159 元后,AI不仅没有正常履行记账职责,反而发表不当言论,称该衣服款式形似“寿衣”。
在随后的交互中,AI并未意识到冒犯,反而继续附和其词,这种缺乏共情心且带有侮辱性的回复随即激怒了用户。该用户当即决定注销会员并要求退款。
针对这一恶劣的交互体验,软件运营方于 5 月 6 日作出正式回应。客服人员解释称,此次不当回复并非人为干预,而是由于AI话术库存在逻辑漏洞。目前,技术团队已经针对相关模型进行了紧急修复,并进一步加强了AI对话场景的监管与限制,防止类似敏感且不敬的表述再次出现。
5 月 6 日下午,官方正式发布《致歉信》,公开承认平台在AI边界管控及文化禁忌理解方面的严重缺失。官方表示,AI模型未能识别特定语境下的情感底线,平台愿意承担全部责任。
在处理方案中,官方明确表示将通过屏蔽敏感词汇、强化全场景审核机制等手段进行深度整改。此外,对于当事用户在注销会员过程中遇到的流程疏忽,官方也作出了澄清,并承诺将优化退款服务流程,向受影响用户表达诚恳歉意并提供相应的补偿措施。
via AI新闻资讯 (author: AI Base)
千问公司宣布其电脑版正式上线全新的 AI 语音输入法,旨在为用户提供更加便捷的输入体验。这个新功能已经全面开放,所有用户均可通过千问电脑版免费使用。这意味着,用户不再需要依赖传统的打字方式,而是可以通过简单的语音指令完成各类操作。
在最新版的千问电脑版中,用户只需按下相应的快捷键,便可以在各种桌面应用中直接使用 AI 语音输入。例如,在微博、QQ 邮箱、Photoshop 以及谷歌浏览器等平台上,用户都能轻松调用此功能。在 Windows 系统中,快捷键为右 Alt 键,而在 Mac 系统中则为右 Command 键。
与传统语音输入法不同,千问的 AI 语音输入法不仅可以实时转录用户的语音,还具备边想边说、边说边改的功能。这意味着用户在输入时,可以随时修改自己的表达,提升了使用的灵活性和便利性。同时,系统还能够自动识别并去除语气词,如 “嗯”、“啊”、“哦” 等,让最终的文本更加简洁。
该功能不仅限于基本的文本输入,还可以结合上下文进行智能回复。用户可以通过简单的语音指令创建 PPT、整理表格,甚至生成 Word 文档。例如,在撰写电子邮件时,千问会根据当前的场景自动生成合适的回复,极大地节省了用户的时间和精力。
划重点:
📢 全新上线:千问电脑版 AI 语音输入法已全面开放,用户可免费使用。
🎤 语音操作:支持边想边说、边说边改,自动识别口语化表达,提升输入体验。
📝 智能回复:结合上下文进行智能回复,支持创建 PPT 和生成文档,简化办公流程。
via AI新闻资讯 (author: AI Base)
在近期的一次访谈中,Claude Code 负责人鲍里斯・切尔尼表达了对 “氛围编程”(vibe coding)这一词汇的厌倦。作为 AI 编程工具的积极推广者,切尔尼认为这一术语已经无法充分反映当前 AI 在编程领域的重大作用。
“氛围编程” 这个词最早是由 OpenAI 的联合创始人安德烈・卡帕西于 2025 年提出,迅速成为描述开发者使用 AI 工具进行编程的通用说法。它的流行甚至使得柯林斯在线词典将其选为年度词汇。然而,切尔尼认为,这个词在描述 Claude Code 和 OpenAI 的 Codex 等产品时显得过于轻浮,因为这些产品正在为各自公司创造数十亿美元的收入,并且已经生成了数百万行有效的代码。
切尔尼提到,Claude Code 作为一款功能强大的 AI 编程助手,正在改变人们编写代码的方式。他曾向 Claude 聊天机器人征求新的名称,虽然 Claude 建议的 “智能体工程” 也有其道理,但似乎并未产生广泛的传播效果。与此同时,Anthropic 公司目前在其文档中将 Claude Code 称为 “AI 驱动的编程助手” 和 “智能体编程工具”,而 OpenAI 的 Codex 则被称为 “帮助你借助 AI 构建和交付的编程智能体”。
为了寻找一个更合适的替代词,切尔尼目前正向外界征求建议。他表示,如果能够收到一些不错的名称,就会考虑采纳。切尔尼希望新的称呼能够更好地反映出 AI 编程工具的价值和影响力。
划重点:
- 💡 切尔尼对 “氛围编程” 一词表达厌倦,认为该术语未能准确描述 AI 编程工具的影响。
- 💰 Claude Code 与 OpenAI 的 Codex 等产品正在为各自公司带来数十亿美元的收入,生成数百万行有效代码。
- 📢 切尔尼目前正在寻求更合适的替代词,以更好地反映 AI 编程助手的价值。
via AI新闻资讯 (author: AI Base)
科技圈🎗在花频道📮:
🤖 Anthropic 与 SpaceX 达成算力合作,提高 Claude Code 与 Claude API 使用限制 Anthropic 称已与 SpaceX 达成算力合作,将使用其 Colossus 1 数据中心全部算力;一个月内可获得超过 300 兆瓦新增容量,包含逾 22 万块 NVIDIA GPU。 Claude 即日起大幅提升使用限额:Claude Code 各类付费方案的 5 小时速率限制翻倍,并取消了 Pro/Max 用户的高峰期限制;Claude Opus 的 API 速率限制也已显著提高。…
xAI 将并入 SpaceX 更名 SpaceXAI,转型为云算力供应商
xAI 与 Cursor、Anthropic 先后达成算力供应协议,出租计算资源;马斯克随即宣布 xAI 将不再独立运营,并入 SpaceX 并更名为 SpaceXAI。分析认为,此举源于 Grok 模型未获广泛市场认可,自建算力超出需求,出租成为创收手段。
为应对估值叙事挑战,马斯克力推“轨道 AI 数据中心”概念,但合作意向并无约束力;同时孟菲斯数据中心稳定性存疑,且附加“危害人类即驱逐”的政治条款,为企业客户引入额外不确定性。
华尔街见闻
🌸 在花频道 · 茶馆讨论 · 投稿通道
via 科技圈🎗在花频道📮 - Telegram Channel
Increased error rate with image generation in the API
Status: Monitoring
We are investigating the issue for the listed services.
Affected components
● Images (Degraded performance)
via OpenAI status
Status: Monitoring
We are investigating the issue for the listed services.
Affected components
● Images (Degraded performance)
via OpenAI status
Anthropic提升Claude对普通用户吸引力
Anthropic PBC 公司最初将其Claude聊天机器人的目标客户锁定在企业,如今则寻求乘着近期在消费者市场取得进展的东风,提升该软件对普通用户的吸引力。该公司实验室团队的联合负责人 Mike Krieger 称,自去年底以来,Anthropic就要求员工改进聊天机器人处理个人咨询的方式,比如有关健康、旅行和食谱的问题。 在旧金山一场公司会议的间隙,Krieger表示Anthropic专注于提升聊天机器人的 “质量、完善度和性能”。这包括缩短用户打开移动应用后向Claude发起询问所需的时间。“今天,我们把这个时间从五六秒缩短到了一秒左右,”Krieger说。
—— 界面新闻、彭博社
via 风向旗参考快讯 - Telegram Channel
Anthropic PBC 公司最初将其Claude聊天机器人的目标客户锁定在企业,如今则寻求乘着近期在消费者市场取得进展的东风,提升该软件对普通用户的吸引力。该公司实验室团队的联合负责人 Mike Krieger 称,自去年底以来,Anthropic就要求员工改进聊天机器人处理个人咨询的方式,比如有关健康、旅行和食谱的问题。 在旧金山一场公司会议的间隙,Krieger表示Anthropic专注于提升聊天机器人的 “质量、完善度和性能”。这包括缩短用户打开移动应用后向Claude发起询问所需的时间。“今天,我们把这个时间从五六秒缩短到了一秒左右,”Krieger说。
—— 界面新闻、彭博社
via 风向旗参考快讯 - Telegram Channel
扎克伯格被控个人授权和鼓励公司侵犯版权
2026-05-07 14:35 by 约纳丹号历险记
五大出版商 Hachette、Macmillan、McGraw Hill、Elsevier 和 Cengage 以及作家 Scott Turow 起诉 Meta 公司及其 CEO 扎克伯格(Mark Zuckerberg),指控扎克伯格个人授权和积极鼓励大规模版权侵犯,使用盗版图书、期刊论文和网络抓取的资料训练 Meta 公司的 Llama AI 系统。Meta 否认有任何不当行为,表示将应诉,称法院已认定使用受版权保护的材料训练 AI 属于合理使用。用版权材料训练 AI 可能是合理使用,但 Meta 使用了非法手段获取了版权材料。起诉书称,为了赢得 AI 军备竞赛并构建一个功能完善的生成式 AI 模型,Meta 和扎克伯格遵循了其“快速行动打破常规”的信条,首先从盗版网站非法下载了数百万本受版权保护的书籍和期刊文章,未经授权抓取了几乎整个互联网的内容,构成了历史上最大规模的版权侵权之一。
https://variety.com/2026/digital/news/meta-ai-mark-zuckerberg-copyright-infringement-lawsuit-publishers-scott-turow-1236738383/
https://publishers.org/wp-content/uploads/2026/05/2026-05-05-Complaint.pdf
#Facebook
via Solidot - Telegram Channel
2026-05-07 14:35 by 约纳丹号历险记
五大出版商 Hachette、Macmillan、McGraw Hill、Elsevier 和 Cengage 以及作家 Scott Turow 起诉 Meta 公司及其 CEO 扎克伯格(Mark Zuckerberg),指控扎克伯格个人授权和积极鼓励大规模版权侵犯,使用盗版图书、期刊论文和网络抓取的资料训练 Meta 公司的 Llama AI 系统。Meta 否认有任何不当行为,表示将应诉,称法院已认定使用受版权保护的材料训练 AI 属于合理使用。用版权材料训练 AI 可能是合理使用,但 Meta 使用了非法手段获取了版权材料。起诉书称,为了赢得 AI 军备竞赛并构建一个功能完善的生成式 AI 模型,Meta 和扎克伯格遵循了其“快速行动打破常规”的信条,首先从盗版网站非法下载了数百万本受版权保护的书籍和期刊文章,未经授权抓取了几乎整个互联网的内容,构成了历史上最大规模的版权侵权之一。
https://variety.com/2026/digital/news/meta-ai-mark-zuckerberg-copyright-infringement-lawsuit-publishers-scott-turow-1236738383/
https://publishers.org/wp-content/uploads/2026/05/2026-05-05-Complaint.pdf
via Solidot - Telegram Channel
月之暗面申请注册KimiClaw商标 或有硬件大动作?
国内大模型领军企业北京月之暗面科技有限公司(Moonshot AI)近期在知识产权布局上有了新动向。据天眼查公开信息显示,该公司已提交了多枚“KimiClaw”商标的注册申请。
这些商标的国际分类涵盖了科学仪器、网站服务以及通讯服务等多个核心领域。目前,相关商标状态均处于“等待实质审查”阶段。这一动作引发了业内对于Kimi未来产品形态的诸多猜想,尤其是在科学仪器分类下的布局,是否预示着公司将从纯软件算法向硬件设备或更具象的物理交互产品延伸。
北京月之暗面科技有限公司成立于 2023 年 4 月,由杨植麟领衔创办。作为一家专注于通用人工智能领域的初创公司,其创始团队成员包括周昕宇、吴育昕等行业资深人士。公司的经营范围十分广泛,除了核心的人工智能基础软件与应用软件开发外,还涉及软件销售等业务。
自成立以来,月之暗面凭借其长文本处理能力在AI圈迅速走红。近期更有消息传出,公司即将完成一笔规模达 20 亿美元的新融资,估值有望突破 200 亿美元大关。随着资本的持续加码和“KimiClaw”等新商标的出现,月之暗面在人工智能生态链上的野心正逐步显露。
via AI新闻资讯 (author: AI Base)
国内大模型领军企业北京月之暗面科技有限公司(Moonshot AI)近期在知识产权布局上有了新动向。据天眼查公开信息显示,该公司已提交了多枚“KimiClaw”商标的注册申请。
这些商标的国际分类涵盖了科学仪器、网站服务以及通讯服务等多个核心领域。目前,相关商标状态均处于“等待实质审查”阶段。这一动作引发了业内对于Kimi未来产品形态的诸多猜想,尤其是在科学仪器分类下的布局,是否预示着公司将从纯软件算法向硬件设备或更具象的物理交互产品延伸。
北京月之暗面科技有限公司成立于 2023 年 4 月,由杨植麟领衔创办。作为一家专注于通用人工智能领域的初创公司,其创始团队成员包括周昕宇、吴育昕等行业资深人士。公司的经营范围十分广泛,除了核心的人工智能基础软件与应用软件开发外,还涉及软件销售等业务。
自成立以来,月之暗面凭借其长文本处理能力在AI圈迅速走红。近期更有消息传出,公司即将完成一笔规模达 20 亿美元的新融资,估值有望突破 200 亿美元大关。随着资本的持续加码和“KimiClaw”等新商标的出现,月之暗面在人工智能生态链上的野心正逐步显露。
via AI新闻资讯 (author: AI Base)
腾讯混元Hy3preview上线两周Token调用量增至10倍,位居OpenRouter周榜第一
腾讯混元大模型近日公布Hy3preview上线两周后的运行数据,显示该模型在开发者生态中呈现出爆发式增长态势。 自发布以来,Hy3preview的Token调用总量已达上一代模型Hy2的10倍以上。数据监测显示,代码编写与智能体构建成为核心增长引擎,驱动腾讯内部WorkBuddy、Codebuddy及Qclaw等应用端的总调用量增幅突破16.5倍。
除了内部生态的强劲表现,Hy3preview在外部开发者市场同样占据领先地位。根据OpenRouter公开的周度数据显示,该模型在过去一周内不仅摘得Token调用量总榜与市场占有率的“双料冠军”,在编程辅助和工具调用(Tool Call)等高阶场景下的调用热度亦位居榜首。
腾讯混元负责人指出,Hy3preview研发初衷旨在强化实用性,通过在OpenRouter开启限免活动,团队成功在真实复杂场景中收集到了大量极具价值的开发者反馈。这种基于开源社区与开放平台的众测模式,正成为大语言模型(LLM)快速迭代的关键路径。
行业观察认为,Hy3preview在代码与工具调用场景的突破,标志着国产大模型正在从单纯的对话能力向具备生产力属性的“行动者”转型。随着调用量的指数级增长,海量真实数据反馈将进一步优化模型的逻辑推理与任务执行边界,加速国内大模型在B端应用及自动化工作流中的渗透效率。
via AI新闻资讯 (author: AI Base)
腾讯混元大模型近日公布Hy3preview上线两周后的运行数据,显示该模型在开发者生态中呈现出爆发式增长态势。 自发布以来,Hy3preview的Token调用总量已达上一代模型Hy2的10倍以上。数据监测显示,代码编写与智能体构建成为核心增长引擎,驱动腾讯内部WorkBuddy、Codebuddy及Qclaw等应用端的总调用量增幅突破16.5倍。
除了内部生态的强劲表现,Hy3preview在外部开发者市场同样占据领先地位。根据OpenRouter公开的周度数据显示,该模型在过去一周内不仅摘得Token调用量总榜与市场占有率的“双料冠军”,在编程辅助和工具调用(Tool Call)等高阶场景下的调用热度亦位居榜首。
腾讯混元负责人指出,Hy3preview研发初衷旨在强化实用性,通过在OpenRouter开启限免活动,团队成功在真实复杂场景中收集到了大量极具价值的开发者反馈。这种基于开源社区与开放平台的众测模式,正成为大语言模型(LLM)快速迭代的关键路径。
行业观察认为,Hy3preview在代码与工具调用场景的突破,标志着国产大模型正在从单纯的对话能力向具备生产力属性的“行动者”转型。随着调用量的指数级增长,海量真实数据反馈将进一步优化模型的逻辑推理与任务执行边界,加速国内大模型在B端应用及自动化工作流中的渗透效率。
via AI新闻资讯 (author: AI Base)
谷歌Gemma4 推理速度狂飙 3 倍,离线大模型时代真的来了
在开源模型领域投下“重磅炸弹”仅数周后,谷歌再次为其最强开源模型Gemma4 注入了强效“助推剂”。当地时间 5 月 5 日,谷歌正式发布了针对Gemma4 系列模型的多Token预测(MTP)起草器。这一技术突破利用推测解码架构,在不牺牲输出质量和逻辑能力的前提下,将模型的推理速度最高提升了 3 倍。
作为目前全球最受关注的开源模型之一,Gemma4 在发布后的短时间内下载量便已突破 6000 万次。而此次更新的核心目标,正是为了解决大语言模型在实际应用中长期存在的推理瓶颈,进一步压榨计算资源的效能。
技术拆解:如何实现“未卜先知”的推理加速?
传统的语言模型推理往往受限于显存带宽。简单来说,处理器在生成文本时,需要耗费大量时间将数百亿个参数从显存搬运到计算单元,这种“搬运”速度远低于计算速度,导致硬件资源在大部分时间处于闲置状态,进而产生明显的回复延迟。
为了攻克这一痛点,谷歌引入了推测解码技术。其工作原理可以理解为一种“主从配合”模式:系统会将Gemma 4 31B等重型目标模型与轻量级的MTP起草器配对。起草器会利用闲置算力提前预测未来可能出现的多个Token(字符),随后由性能更强的主模型进行并行验证。一旦预测匹配,模型就能在单次计算中直接确认整个序列,从而大幅缩短了文本生成的时间。
实测表现:Apple Silicon与消费级显卡受益显著
根据官方公布的测试数据,这种加速效果在本地设备上表现尤为亮眼。在Apple Silicon芯片环境下,当batch sizes设定在 4 至 8 之间时,Gemma 4 26B模型的本地运行速度提升了约2. 2 倍。
这意味着,开发者现在可以在个人电脑或普通的消费级显卡上,更流畅地运行复杂的离线编程助手或智能体工作流。此外,由于推理效率的提升,边缘设备的能耗也随之显著降低,为移动端AI应用的普及扫清了障碍。
AI应用的边界再次拓展
此次技术更新主要针对低延迟需求极高的场景,如即时聊天机器人、自动化编程工具以及各类自主智能体。谷歌通过MTP起草器证明,即便在资源受限的硬件环境下,开发者依然能够部署最先进的语言模型,且无需在响应速度和计算精度之间做“二选一”。
随着推理成本和门槛的进一步降低,Gemma4 及其配套技术的演进,正将AI从云端推向更广泛的个人计算终端。
via AI新闻资讯 (author: AI Base)
在开源模型领域投下“重磅炸弹”仅数周后,谷歌再次为其最强开源模型Gemma4 注入了强效“助推剂”。当地时间 5 月 5 日,谷歌正式发布了针对Gemma4 系列模型的多Token预测(MTP)起草器。这一技术突破利用推测解码架构,在不牺牲输出质量和逻辑能力的前提下,将模型的推理速度最高提升了 3 倍。
作为目前全球最受关注的开源模型之一,Gemma4 在发布后的短时间内下载量便已突破 6000 万次。而此次更新的核心目标,正是为了解决大语言模型在实际应用中长期存在的推理瓶颈,进一步压榨计算资源的效能。
技术拆解:如何实现“未卜先知”的推理加速?
传统的语言模型推理往往受限于显存带宽。简单来说,处理器在生成文本时,需要耗费大量时间将数百亿个参数从显存搬运到计算单元,这种“搬运”速度远低于计算速度,导致硬件资源在大部分时间处于闲置状态,进而产生明显的回复延迟。
为了攻克这一痛点,谷歌引入了推测解码技术。其工作原理可以理解为一种“主从配合”模式:系统会将Gemma 4 31B等重型目标模型与轻量级的MTP起草器配对。起草器会利用闲置算力提前预测未来可能出现的多个Token(字符),随后由性能更强的主模型进行并行验证。一旦预测匹配,模型就能在单次计算中直接确认整个序列,从而大幅缩短了文本生成的时间。
实测表现:Apple Silicon与消费级显卡受益显著
根据官方公布的测试数据,这种加速效果在本地设备上表现尤为亮眼。在Apple Silicon芯片环境下,当batch sizes设定在 4 至 8 之间时,Gemma 4 26B模型的本地运行速度提升了约2. 2 倍。
这意味着,开发者现在可以在个人电脑或普通的消费级显卡上,更流畅地运行复杂的离线编程助手或智能体工作流。此外,由于推理效率的提升,边缘设备的能耗也随之显著降低,为移动端AI应用的普及扫清了障碍。
AI应用的边界再次拓展
此次技术更新主要针对低延迟需求极高的场景,如即时聊天机器人、自动化编程工具以及各类自主智能体。谷歌通过MTP起草器证明,即便在资源受限的硬件环境下,开发者依然能够部署最先进的语言模型,且无需在响应速度和计算精度之间做“二选一”。
随着推理成本和门槛的进一步降低,Gemma4 及其配套技术的演进,正将AI从云端推向更广泛的个人计算终端。
via AI新闻资讯 (author: AI Base)
5月7日,千问在PC端上线AI语音输入能力,用户通过快捷键即可在各类桌面应用中直接使用。千问语音输入法支持对口语内容去语气词、纠错、格式化整理等,能够基于上下文智能回复,还可直接下达创作、问答、翻译等指令。
千问语音输入展现出极强的语义解析能力。以一段夹杂口误的口语为例:“王总,会议定在两点……不对三点,地点在老会议室,记得带那份……市场调研报告。”千问可实时过滤“那个”、“额”等冗余词并修正口误,直接输出结构化文本:“王总,会议定在下午三点,地点为老会议室,请带上市场调研报告。”
对口语化表达的重构不仅限于文字精简,更在于逻辑纠错与结构化整理。用户在撰写周报或纪要时,即便表达逻辑跳跃,千问也能基于上下文进行语义归纳。例如,用户散乱地口述一段工作进展,千问可自动将其整理为要点清晰的结构化周报。
在进行办公或者创作时,用户无需离开编辑器就可以通过语音指令使用千问。比如,若想要在文中插入去年GDP数据,直接说“帮我插入2025年全国GDP数据”。在浏览网页或者阅读专业英文论文时,遇到不清楚的地方,划选后说“帮我解释一下”“帮我翻译一下”,千问会自动解释或者翻译。
在钉钉、微信或者邮件的场景,用户也可要求千问根据上下文自动生成回复。例如,要回复客户的英文邮件,用户中文简单口述要求,千问即可在输入框生成格式正确的英文邮件回复。
目前,千问语音输入法功能已经全面开放,所有用户可以通过千问PC端免费使用这一功能。
via AI新闻资讯 (author: AI Base)
昨日,OpenAI 正式发布公告,宣布联合 AMD、博通(Broadcom)、英特尔、微软及英伟达(NVIDIA)等五大行业巨头,共同推出多路径可靠连接(MRC)协议。该协议旨在解决大规模 AI 训练中极易出现的网络延迟与故障问题,并已通过开放计算项目(OCP)向全球行业开源。
击碎“单点故障”:从三层架构到两层设计的跨越
在传统的 AI 模型训练过程中,网络拥塞或单条链路的微小故障,往往会像推倒多米诺骨牌一样,导致数万块 GPU 进入闲置等待状态,造成巨额的算力浪费。
为了从根本上提升系统的韧性,MRC 协议引入了多平面网络设计。它巧妙地将单一的800Gb/s 接口拆分为多个更小的链路,通过这种结构优化,系统仅需两层交换机即可支撑约13.1万块 GPU 的庞大集群。相比传统的双层或四层架构,这一改动不仅大幅减少了物理组件数量和能耗,还显著降低了建设成本。
流量调度新方案:数据包“喷淋”与微秒级自愈
除了架构上的精简,MRC 在流量分配上也展现了全新思路。它采用了自适应数据包喷淋技术,打破了传统的单路径传输模式,将任务数据包打散并分发至数百条路径进行并行传输。即便数据包在传输过程中乱序到达,接收端也能精准重组,从而有效避开了核心网络的局部拥塞。
在网络控制方面,MRC 抛弃了复杂的动态路由协议(如 BGP),转而采用 SRv6源路由技术。这意味着发送端可以直接指定路径,交换机只需执行简单的静态转发。这种设计将网络故障的恢复时间从以往的“秒级”直接压缩到了“微秒级”,让系统在面对链路抖动时几乎能做到“无感自愈”。
落地实测:超级计算机的“防抖”利器
目前,MRC 协议已在英伟达 GB200超级计算机以及甲骨文(Oracle)云基础设施中投入实际应用。实测数据证明,在真实的训练场景下,即使面临链路抖动或交换机重启等突发情况,MRC 也能自动绕过故障点,确保复杂的训练任务不被中断。
这一协议的开源,标志着 AI 基础设施正从“暴力堆料”向“精细化架构”转型。通过巨头间的协作,AI 训练网络正变得更加坚韧、高效且灵活。
via AI新闻资讯 (author: AI Base)
Anthropic 联手 SpaceX 豪掷算力,Claude 付费用户迎来“无限速”时代
近日,人工智能领域领军企业 Anthropic(下称“A 社”)宣布了一项重磅消息:得益于算力资源的重大突破,所有 Claude 付费订阅用户的 5 小时使用配额速率将正式翻倍。这意味着 Claude Code Pro、Claude Max、Claude Team 以及企业版用户,在原本的使用周期内将获得两倍的响应速度。
此次升级的核心不仅在于速率的提升,更在于“高峰期限制”的终结。此前,为了平衡服务器负载,付费用户在用量高峰时段常会遭遇速率下调。而现在,随着算力瓶颈的消解,这一限制已被彻底取消。同时,针对开发者群体的 Claude Opus API 调用速率也得到了大幅上调,旨在为高强度开发场景提供更稳定的支持。
算力背后的“跨界援军”:马斯克的 Colossus 算力集群
A 社此次能够如此“大方”地回馈用户,底气源自与 SpaceX 签署的一项深度合作协议。据悉,由于埃隆·马斯克旗下的 xAI 人工智能数据中心此前存在利用率冗余,这些顶尖的硬件资源已通过 SpaceX 平台转租给 A 社使用。
目前,A 社已正式接入位于美国孟菲斯的 Colossus 1 超级计算中心,并获准使用其全部 300 兆瓦的计算能力。这一算力“活水”的引入,精准解决了 Claude Code 因用户量激增而长期面临的计算资源荒,也让此前被迫采取的种种“节流”措施成为历史。
从地面到太空:未来将启用轨道 AI 数据中心
更令人瞩目的是,A 社与 SpaceX 的合作并未止步于地面。双方已开始联合研发数 GW 规模的“轨道人工智能数据中心”。尽管这一项目目前仍处于起步阶段,但其愿景极其宏大:SpaceX 计划在未来几年内,利用太空环境中无穷尽的太阳能资源,为这些漂浮在轨道上的服务器提供持续且低成本的电力供应。
这种从物理层面上寻找解决方案的思路,不仅展示了 A 社维持产品快速扩张的决心,也预示着人工智能竞争的下半场可能将从传统的地面机房转向广袤的太空。
对于普通订阅用户而言,最直观的改变已经发生——更流畅的交互、更高的配额、以及不再受限的高峰时段,Claude 的使用体验已迈向一个全新的阶段。
via AI新闻资讯 (author: AI Base)
近日,人工智能领域领军企业 Anthropic(下称“A 社”)宣布了一项重磅消息:得益于算力资源的重大突破,所有 Claude 付费订阅用户的 5 小时使用配额速率将正式翻倍。这意味着 Claude Code Pro、Claude Max、Claude Team 以及企业版用户,在原本的使用周期内将获得两倍的响应速度。
此次升级的核心不仅在于速率的提升,更在于“高峰期限制”的终结。此前,为了平衡服务器负载,付费用户在用量高峰时段常会遭遇速率下调。而现在,随着算力瓶颈的消解,这一限制已被彻底取消。同时,针对开发者群体的 Claude Opus API 调用速率也得到了大幅上调,旨在为高强度开发场景提供更稳定的支持。
算力背后的“跨界援军”:马斯克的 Colossus 算力集群
A 社此次能够如此“大方”地回馈用户,底气源自与 SpaceX 签署的一项深度合作协议。据悉,由于埃隆·马斯克旗下的 xAI 人工智能数据中心此前存在利用率冗余,这些顶尖的硬件资源已通过 SpaceX 平台转租给 A 社使用。
目前,A 社已正式接入位于美国孟菲斯的 Colossus 1 超级计算中心,并获准使用其全部 300 兆瓦的计算能力。这一算力“活水”的引入,精准解决了 Claude Code 因用户量激增而长期面临的计算资源荒,也让此前被迫采取的种种“节流”措施成为历史。
从地面到太空:未来将启用轨道 AI 数据中心
更令人瞩目的是,A 社与 SpaceX 的合作并未止步于地面。双方已开始联合研发数 GW 规模的“轨道人工智能数据中心”。尽管这一项目目前仍处于起步阶段,但其愿景极其宏大:SpaceX 计划在未来几年内,利用太空环境中无穷尽的太阳能资源,为这些漂浮在轨道上的服务器提供持续且低成本的电力供应。
这种从物理层面上寻找解决方案的思路,不仅展示了 A 社维持产品快速扩张的决心,也预示着人工智能竞争的下半场可能将从传统的地面机房转向广袤的太空。
对于普通订阅用户而言,最直观的改变已经发生——更流畅的交互、更高的配额、以及不再受限的高峰时段,Claude 的使用体验已迈向一个全新的阶段。
via AI新闻资讯 (author: AI Base)