https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
据外媒报道,苹果正在测试一项全新 Siri 功能,配合即将到来的“Apple Intelligence”重大改版,允许用户在一句话中向 Siri 发出多个连续指令,而无需像现在这样一条一条单独下达。
早在 2023 年,苹果已在系统中加入“连续指令”能力,用户在与 Siri 对话时可以省略再次唤醒“Siri”或“嘿 Siri”的口令,连续提出多个请求。 但这次的改进被认为是一次更彻底的升级:用户不必先说完一个任务再停顿,而是可以在一句话里串联多个命令,例如:“帮我设定一个 15 分钟的计时器,然后告诉我现在的天气。” 系统会在理解整句语义后依次完成相关操作。
知情人士透露,这项新能力目前正在内部测试,有望随 iOS 27、macOS 27 和 iPadOS 27 一同亮相,并在 2026 年的苹果全球开发者大会(WWDC 2026)上正式公布。 目前苹果在内部将部分新 Siri 功能标记为“预览”,这意味着它们可能不会在 iOS 27 正式版首发时就完全开放,而是以后续更新或测试版形式逐步推送给用户。
此次升级被视为苹果让 Siri 更好与新一代 AI 语音助手竞争的重要一步,目标对标包括 ChatGPT 在内的对话式助手。 据报道,未来的 Siri 还将具备“聊天机器人”形态,能通过苹果所谓的“World Knowledge Answers(世界知识回答)”来概括和总结互联网上的信息,为用户提供更具语境理解和知识整合能力的回答。
关于新版 Siri 的传闻已经流传多时,外界原本普遍预期它会随 iOS 26.4 一起亮相,但最新消息显示,苹果更可能选择在 WWDC 2026 上集中发布这一系列 Siri 新特性。 按照惯例,开发者与测试用户有望在 2026 年 6 月率先体验新版 Siri,而普通用户要到同年 9 月正式版系统发布后才能使用。
值得注意的是,当苹果在 2024 年 6 月首次公布 Apple Intelligence 时,“改进版 Siri”被视为整套方案的核心承诺之一。 然而从时间轴来看,如果新版 Siri 最终要到 2026 年秋季才真正走向大众,那么这一承诺相比最初宣布已至少推迟了两年之久。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)
Elevated failures for some users joining ChatGPT Enterprise and ChatGPT Edu workspaces via SSO.
Status: Investigating
We are investigating elevated failures for some users joining ChatGPT Enterprise and ChatGPT Edu workspaces via SSO. Affected users may see an authentication error during signup including registration_disallowed, after completing their organization’s SSO flow.
Affected components
● Login (Degraded performance)
via OpenAI status
Status: Investigating
We are investigating elevated failures for some users joining ChatGPT Enterprise and ChatGPT Edu workspaces via SSO. Affected users may see an authentication error during signup including registration_disallowed, after completing their organization’s SSO flow.
Affected components
● Login (Degraded performance)
via OpenAI status
↩️ GitHub 停用 Copilot 在他人 PR 中插入提示功能
GitHub 停用 Copilot 在他人 PR 中插入提示功能
GitHub 在开发者反弹后停用 Copilot 在拉取请求评论中插入“提示”的功能。公司承认,允许 Copilot 在被提及后修改并非由其创建的 PR 内容,是一次错误判断。
事件起因是一名开发者发现,Copilot 在其 PR 中加入了推广 Raycast 的提示。GitHub 随后表示,平台不包含也无计划加入广告;此次系编程逻辑问题,相关提示已从 PR 评论中移除。
The Register
🌸 在花频道|茶馆讨论|投稿通道
via 科技圈🎗在花频道📮 - Telegram Channel
科技圈🎗在花频道📮:
开发者称 Copilot 改 PR 时插入自我宣传广告 一开发者称在调用 Copilot 帮忙修正其拉取请求中的一个拼写错误后,Copilot 改写了该拉取请求的描述,并插入了宣传 Copilot 和 Raycast 的广告内容。 文章将这件事视为平台把产品推广植入用户工作流的例子,并批评这种做法是在滥用用户与商业客户。 notes.zachmanson.com 🌸 在花频道|茶馆讨论|投稿通道
GitHub 停用 Copilot 在他人 PR 中插入提示功能
GitHub 在开发者反弹后停用 Copilot 在拉取请求评论中插入“提示”的功能。公司承认,允许 Copilot 在被提及后修改并非由其创建的 PR 内容,是一次错误判断。
事件起因是一名开发者发现,Copilot 在其 PR 中加入了推广 Raycast 的提示。GitHub 随后表示,平台不包含也无计划加入广告;此次系编程逻辑问题,相关提示已从 PR 评论中移除。
The Register
🌸 在花频道|茶馆讨论|投稿通道
via 科技圈🎗在花频道📮 - Telegram Channel
阿里巴巴的新Qwen3.5多模态模型将不开源
虽然阿里巴巴一直以来被视为中国“开源 AI”的领军者,但在最前沿的多模态和推理模型上,阿里正在转向“API 优先”的闭源策略。阿里巴巴最新发布的 Qwen3.5-Omni 多模态模型能够处理文本、音频、图像和视频,并在多个评价指标中取得领先,但却并没有像之前的模型那样开放权重下载,而是仅通过其云计算平台提供 API 服务。阿里可能正在效仿 OpenAI 的路径。虽然通过开源中小型模型(如 Qwen 3.5-9B/27B)来积累开发者生态和市场占有率,但将最强模型(如 Max 版本和 Omni 版本)保留为闭源,旨在通过云计算平台实现商业变现,弥补昂贵的训练成本。全模态模型的训练和推理成本极高,开源权重意味着竞争对手可以低成本复制其能力,不利于阿里的云业务收入。
—— The Information
via 风向旗参考快讯 - Telegram Channel
虽然阿里巴巴一直以来被视为中国“开源 AI”的领军者,但在最前沿的多模态和推理模型上,阿里正在转向“API 优先”的闭源策略。阿里巴巴最新发布的 Qwen3.5-Omni 多模态模型能够处理文本、音频、图像和视频,并在多个评价指标中取得领先,但却并没有像之前的模型那样开放权重下载,而是仅通过其云计算平台提供 API 服务。阿里可能正在效仿 OpenAI 的路径。虽然通过开源中小型模型(如 Qwen 3.5-9B/27B)来积累开发者生态和市场占有率,但将最强模型(如 Max 版本和 Omni 版本)保留为闭源,旨在通过云计算平台实现商业变现,弥补昂贵的训练成本。全模态模型的训练和推理成本极高,开源权重意味着竞争对手可以低成本复制其能力,不利于阿里的云业务收入。
—— The Information
via 风向旗参考快讯 - Telegram Channel
得益于苹果的MLX框架 Ollama在Mac上运行得更快
Ollama 近日发布更新,将苹果自家机器学习框架 MLX 引入其本地大模型运行方案,在搭载 Apple 芯片的 Mac 上实现显著性能提升。 官方介绍称,新版本在提示预填阶段(prefill)的处理速度提升约 1.6 倍,在生成回复阶段(decode)的速度几乎提升一倍,使本地大模型推理整体响应更为迅速。 尤其是配备 M5 系列芯片的机型受益最大,这得益于苹果在新一代芯片中加入的 GPU Neural Accelerator(神经加速器)。
本次更新还改进了内存管理策略,在长时间使用场景下能够更高效地利用系统统一内存,从而让依托 Ollama 的本地 AI 编码工具和聊天助手在持续会话中保持更流畅的交互体验。 Ollama 表示,此次性能增强将特别有利于在 macOS 上运行个人助理类模型(如 OpenClaw)以及代码助手类代理(如 Claude Code、OpenCode、Codex 等)的用户,使这类工具更接近“即时响应”的使用感受。
目前,这一基于 MLX 的加速版本以 Ollama 0.19 预览版形式提供下载:
https://ollama.com/blog/mlx
官方建议用户在配备超过 32GB 统一内存的 Mac 上运行,以获得更理想的性能表现。 预览阶段仅支持阿里旗下的 Qwen3.5 模型,但 Ollama 已明确表示,后续会逐步为更多 AI 模型加入支持。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)
Ollama 近日发布更新,将苹果自家机器学习框架 MLX 引入其本地大模型运行方案,在搭载 Apple 芯片的 Mac 上实现显著性能提升。 官方介绍称,新版本在提示预填阶段(prefill)的处理速度提升约 1.6 倍,在生成回复阶段(decode)的速度几乎提升一倍,使本地大模型推理整体响应更为迅速。 尤其是配备 M5 系列芯片的机型受益最大,这得益于苹果在新一代芯片中加入的 GPU Neural Accelerator(神经加速器)。
本次更新还改进了内存管理策略,在长时间使用场景下能够更高效地利用系统统一内存,从而让依托 Ollama 的本地 AI 编码工具和聊天助手在持续会话中保持更流畅的交互体验。 Ollama 表示,此次性能增强将特别有利于在 macOS 上运行个人助理类模型(如 OpenClaw)以及代码助手类代理(如 Claude Code、OpenCode、Codex 等)的用户,使这类工具更接近“即时响应”的使用感受。
目前,这一基于 MLX 的加速版本以 Ollama 0.19 预览版形式提供下载:
https://ollama.com/blog/mlx
官方建议用户在配备超过 32GB 统一内存的 Mac 上运行,以获得更理想的性能表现。 预览阶段仅支持阿里旗下的 Qwen3.5 模型,但 Ollama 已明确表示,后续会逐步为更多 AI 模型加入支持。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)
Claude Code 泄露了全部源码
不是被黑客攻破,是 Anthropic 自己把 source map 打包进了 npm 发布物。一个 57MB 的cli.js.map文件,里面藏着 4756 个源文件的完整内容。其中 1906 个是 Claude Code 自身的 TypeScript/TSX 源码,剩下 2850 个是 node_modules 依赖。
提取方法极其简单:cli.js.map本质就是一个 JSON,里面有两个关键数组——sources(文件路径)和 sourcesContent(对应的完整源码)。两者索引一一对应。不需要反编译,不需要反混淆,sourcesContent 里存的就是一字不差的原始代码。从还原的源码可以看到:Claude Code 用 React + Ink 构建 CLI 界面,核心是一个 REPL 循环,支持自然语言输入和 slash 命令,底层通过工具系统与 LLM API 交互。架构设计、系统提示词、工具调用逻辑,全部一览无余。
—— 陈成的X
via 风向旗参考快讯 - Telegram Channel
不是被黑客攻破,是 Anthropic 自己把 source map 打包进了 npm 发布物。一个 57MB 的cli.js.map文件,里面藏着 4756 个源文件的完整内容。其中 1906 个是 Claude Code 自身的 TypeScript/TSX 源码,剩下 2850 个是 node_modules 依赖。
提取方法极其简单:cli.js.map本质就是一个 JSON,里面有两个关键数组——sources(文件路径)和 sourcesContent(对应的完整源码)。两者索引一一对应。不需要反编译,不需要反混淆,sourcesContent 里存的就是一字不差的原始代码。从还原的源码可以看到:Claude Code 用 React + Ink 构建 CLI 界面,核心是一个 REPL 循环,支持自然语言输入和 slash 命令,底层通过工具系统与 LLM API 交互。架构设计、系统提示词、工具调用逻辑,全部一览无余。
—— 陈成的X
via 风向旗参考快讯 - Telegram Channel
值得注意的是,这已经是该平台近期第二次出现服务不稳定情况。就在3月29日夜间至30日上午,DeepSeek曾遭遇长达12小时的大规模崩溃,网页端和手机App均一度陷入瘫痪。
针对此前的故障,官方曾在30日上午表示经过两次紧急修复,各项服务已全面恢复正常。
然而仅仅过去一天多时间,服务异常的情况再次上演,再次引发了用户的广泛讨论。
根据公开资料显示,DeepSeek在过去的15个月内已累计发生至少7次较为显著的服务中断。
回溯过往记录,2025年1月DeepSeek曾因遭受大规模恶意攻击导致多次宕机。为了保障核心服务的稳定,官方当时甚至不得不采取限制非+86手机号注册的临时措施。
同年1月26日,受最新模型发布后的流量激增影响,平台再次出现局部波动。虽然当时问题得到了快速解决,但在随后的3月和7月,因服务器资源紧张导致的宕机事件依然时有发生。
就在本次连续故障发生前的3月10日,DeepSeek也曾因为服务器过载导致功能受限。相关话题在短时间内冲上热搜,显示出大众对这款AI工具运行稳定性的高度敏感。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:快科技)
今日,国内领先的大模型企业智谱正式发布2025年度业绩报告。财报数据显示,智谱在过去一年实现了商业化路径的跨越式突破,不仅收入规模稳居国内大模型行业首位,其核心业务指标更是呈现出指数级增长。
智谱2025年全年收入突破 7.24亿元,同比大幅增长 132%。在保持高增长的同时,公司的盈利质量同样惊人:
● 综合毛利率: 全年达到 41%,远超行业平均水准,展现了极强的成本控制与规模效应。
● MaaS API平台: 作为核心增长引擎,该平台年度经常性收入(ARR)达到 17亿元(约2.5亿美金),同比暴增 60倍。
● 平台利润: MaaS API平台的毛利率从去年同期的低位跃升至 18.9%,提升近5倍,标志着平台模式已进入健康发展的快车道。
进入2026年一季度,智谱采取了激进的价格策略,将 API价格上调了83%。出人意料的是,涨价并未导致客户流失,调用量反而不降反升。这种“供不应求”的局面,反映出市场对高质量AI能力的强刚需,也印证了智谱模型在性能上的领先地位。
智谱官方表示,智能上界的持续提升是大模型迈向通用人工智能(AGI)时代的“第一性原理”。公司未来将继续倾注资源,专注模型智能的持续突破,巩固其作为国内大模型标杆企业的竞争壁垒。
via AI新闻资讯 (author: AI Base)
B站AI 创作工具“updream”正式开启内测
哔哩哔哩(B站)近日已低调开启其首款 AI 创作产品“updream”的内测。这款产品旨在利用生成式 AI 技术降低视频创作门槛,帮助 UP 主们更高效地完成从创意构思到素材生成的全链路开发。
作为国内领先的视频社区,B站此举被视为其 AI 战略从“后台优化”走向“前台赋能”的重要标志。通过将 AI 能力直接集成到创作端,B站试图在短视频与长视频的存量竞争中,利用技术手段激活社区的原创活力。
“updream”的核心定位是成为 UP 主的“智能创意助手”,通过大模型能力提供脚本撰写、图像生成及音视频剪辑建议。这种深度的工具集成,能有效解决新手创作者在素材获取和后期制作上的痛点,进一步缩短爆款内容的产出周期。
B站方面表示,该产品目前仍处于小范围内测阶段,未来将根据反馈持续迭代功能模块。随着 AI 技术的介入,B站的创作生态有望从单纯的“人力驱动”转向“人机协作”的新形态。
via AI新闻资讯 (author: AI Base)
哔哩哔哩(B站)近日已低调开启其首款 AI 创作产品“updream”的内测。这款产品旨在利用生成式 AI 技术降低视频创作门槛,帮助 UP 主们更高效地完成从创意构思到素材生成的全链路开发。
作为国内领先的视频社区,B站此举被视为其 AI 战略从“后台优化”走向“前台赋能”的重要标志。通过将 AI 能力直接集成到创作端,B站试图在短视频与长视频的存量竞争中,利用技术手段激活社区的原创活力。
“updream”的核心定位是成为 UP 主的“智能创意助手”,通过大模型能力提供脚本撰写、图像生成及音视频剪辑建议。这种深度的工具集成,能有效解决新手创作者在素材获取和后期制作上的痛点,进一步缩短爆款内容的产出周期。
B站方面表示,该产品目前仍处于小范围内测阶段,未来将根据反馈持续迭代功能模块。随着 AI 技术的介入,B站的创作生态有望从单纯的“人力驱动”转向“人机协作”的新形态。
via AI新闻资讯 (author: AI Base)