https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
Increased error for Opus 4.6 from model provider

Mar 17, 19:57 UTC
Investigating - We are investigating this issue.

via Cursor Status - Incident History
Elevated errors on Claude Opus 4.6

Mar 17, 19:47 UTC
Identified - The issue has been identified and a fix is being implemented.

via Claude Status - Incident History
High Error rates with ChatGPT 5.4 Pro

Status: Investigating

We are investigating the issue for the listed services.

Affected components
Conversations (Partial outage)

via OpenAI status
Excel Plugin is inaccessible for some users

Status: Investigating

We are investigating the issue for the listed services.

Affected components
Connectors/Apps (Degraded performance)

via OpenAI status
#Update #ChatGPT #Codex

GPT-5.4 mini 和 nano 现已发布,并在全产品线可用。

其中,mini 宣称在提供接近 GPT-5.4 能力的基础上,提供了两倍于 GPT-5 mini 的速度。

via AI Copilot - Telegram Channel
↩️🖼 OpenAI 发布 GPT‑5.4 mini 与 nano,小模型面向高吞吐工作负载


科技圈🎗在花频道📮:

🤖 OpenAI 发布 GPT‑5‑Codex‑Mini:更省成本的代码生成模型上线 OpenAI 推出新模型 GPT‑5‑Codex‑Mini,这是此前 GPT‑5‑Codex 的紧凑版,专为开发者提供更高性价比的编码支持。相比完整版,Mini 模型可提供约4倍使用量,性能仅略有下降,在 SWE‑bench Verified 测试中得分为 71.3%,而 GPT‑5‑Codex 得分为 74.5%。新模型现已在 CLI 和 IDE 插件中上线,API 接入即将推出。 Neowin 🍀在花频道 🍵茶馆…

OpenAI 发布 GPT‑5.4 mini 与 nano,小模型面向高吞吐工作负载

OpenAI 发布 GPT‑5.4 mini 与 GPT‑5.4 nano,定位高吞吐、低时延的小模型。官方称,GPT‑5.4 mini 在编码、推理、多模态理解与工具使用上较 GPT‑5 mini 提升,并在多项评测中接近 GPT‑5.4,运行速度超过 2 倍。

GPT‑5.4 mini 已在 API、Codex 与 ChatGPT 提供,API 支持文本与图像输入、工具与函数调用等,400k 上下文,价格为每 100 万输入 tokens 0.75 美元、输出 4.50 美元。GPT‑5.4 nano 仅在 API 提供,价格为每 100 万输入 tokens 0.20 美元、输出 1.25 美元。

OpenAI

🍀在花频道 🍵茶馆聊天 📮投稿

via 科技圈🎗在花频道📮 - Telegram Channel
:有网友发现付费用户的 ChatGPT App 无法切换模型,网页版暂时正常。目前暂不清楚是 bug 还是 feature。

via:群友

🍀在花频道 🍵茶馆聊天 📮投稿

via 科技圈🎗在花频道📮 - Telegram Channel
Elevated errors on Claude Sonnet 4.6

Mar 17, 14:07 UTC
Identified - The issue has been identified and a fix is being implemented. At this stage, only free Claude.ai users are being impacted.

via Claude Status - Incident History
乐天集团开放日语大模型 Rakuten AI 3.0,被曝光基于 DeepSeek V3 架构而引发争议

乐天集团宣布开始提供日语特化大模型 Rakuten AI 3.0。公司称该模型在日本文化与历史、指令遵循等多项日语基准上,表现高于 gpt-4o 等模型。其基于开源社区模型叠加自有双语数据等进行开发。

但 X 上网友发现项目 Hugging Face 页面的 config.json 包含类似 model_type": "deepseek_v3" 等内容。而该模型在回答相关问题时,其舆论立场明显更偏向中国而非日本。这引发了网友的关于该模型是否基于 DeepSeek 开发,以及其包含多少日本自主研发的技术的讨论。

Impress Watch | AiXsatoshi | Hugging Face

🍀在花频道 🍵茶馆聊天 📮投稿

via 科技圈🎗在花频道📮 - Telegram Channel
手机AI功能有用吗 数千名网友投票扎心:1/4用户直言从不用

近年推出的手机普遍内置AI助理,提供便利的生成式AI功能,但这些功能对大众而言真的有用吗。根据Android Authority最新调查显示,在超过六千名的受访者中,有四分之一以上的人表示自己根本没在用这些AI功能。

由于海外安卓手机基本上搭载的是谷歌Gemini助理,因此Android Authority针对其用户进行了Gemini使用习惯调查,共收集将近6000名网友意见。

其中,40.06%的受访者表示会使用Gemini进行摘要与搜索,用法大致已取代原有的谷歌搜索;19.89%的人利用Gemini写作或改写内容。

另有13.78%的人则是使用Gemini分析图像,或启用Gemini Live识别眼前的物体与文字。

令人惊讶的是,有26%(1547名)网友表示完全无视Gemini服务,没有使用习惯,比例之高让Android Authority也吓了一跳。

有网友表示,自己手机里完全没有Gemini、Bixby等任何AI服务,但他也没有错过任何信息与功能,认为手机不需要AI也能正常运作。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:快科技)
马斯克:如果告赢OpenAI 千亿美元收益将全部捐出

今日,特斯拉CEO埃隆・马斯克在X平台发布声明,明确表示若在针对OpenAI的诉讼中胜诉,所获全部法律收益将悉数捐赠至慈善机构,其个人不会从中获取任何利益。此次马斯克提起的诉讼对象为OpenAI及微软,索赔金额高达1340亿美元,按现汇率折合人民币约9228.4亿元。

该案目前已进入激烈的庭前博弈阶段,并正式定于2026年4月28日开庭审理。

这场法律纠纷的根源在于OpenAI的公司结构转型,该公司2015年由马斯克联合创立,最初为非营利组织。

2019年转型为“限制利润”结构,后续还计划重组为公共利益公司,马斯克认为其背弃了开源、非营利的创立初衷。

马斯克作为OpenAI前联合创始人,曾为该公司投资约4500万至5000万美元,2018年因与管理层在发展方向上产生冲突退出董事会。

2023年马斯克创立人工智能实验室 xAI,后与SpaceX合并,成为OpenAI的直接竞争对手。

马斯克此前曾申请初步禁令阻止OpenAI向营利性公司转型,该请求于2025年3月被联邦法官驳回,法官裁定案件由陪审团在2026年春季进行审判。

对于马斯克的诉讼,OpenAI 方面予以否认,称其诉讼行为受商业动机驱使,属于对公司的 “持续骚扰模式”,并表示公司转型是为支撑人工智能研发的高额开销。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:快科技)
开源界再迎王炸!Mistral Small 4 正式发布:三位一体,不仅更强还更省?

在开源大模型赛道,Mistral AI再次向行业展示了什么叫“效率至上”。今日,该公司宣布在 Apache2.0许可下正式开源其 Small 系列的最新力作——Mistral Small4,并同步宣布加入英伟达新成立的 Nemotron 联盟,成为创始成员之一。

这并非一次简单的常规升级。Mistral Small4 被官方定义为首款“三位一体”的多功能模型。它完美整合了 Mistral 家族此前引以为傲的三大旗舰能力:

Magistral: 卓越的逻辑推理能力。

Pixtral: 强大的原生多模态处理能力(支持图像输入)。

Devstral: 专业的智能体编码能力。

这意味着开发者无需再在“快指令模型”、“重推理引擎”或“多模态助手”之间做选择题,一个模型就能搞定所有场景。

在技术规格上,Mistral Small4 采用了精密的 128专家混合(MoE)架构。尽管总参数量达到了1190亿,但通过优化,每个 Token 仅激活4个专家(约60亿个活动参数),在保证性能的同时极大降低了算力开销。此外,256k 的超长上下文窗口,让它在处理长文档分析和复杂对话时游刃有余。

值得关注的是,该模型引入了“可配置推理强度”功能。用户可以在追求低延迟的快速响应和深度思考的推理输出之间自由切换。实测数据统计显示:

在延迟优化模式下,端到端完成时间减少了 40%

在吞吐量优化模式下,每秒请求数(RPS)相比前代产品提升了 3倍

从代码补全到视觉分析,Mistral Small4 的开源无疑为全球开发者提供了一个更灵活、更高效的“全能底座”。当顶尖推理能力与原生多模态合二为一,开源社区的创新天花板或将被再次拉高。

via AI新闻资讯 (author: AI Base)