https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
谷歌 Chrome 浏览器 148 版更新:本地 AI 数据处理表述引发关注

近日,谷歌宣布了 Chrome 浏览器的最新版本 148 的更新,但这一更新引发了用户和专家的关注。根据 cybernews 的报道,谷歌对 Chrome 中设备端 AI 模型处理数据的相关措辞进行了修改。之前在 Chrome 147 版本中,明确表示:“Chrome 可以使用直接在设备上运行的 AI 模型,数据无需发送到谷歌服务器。” 然而,在 148 版本中,这一关键表述被删除,引起了广泛的讨论。

计算机科学家兼律师亚历山大・汉夫对此提出了疑问,他询问谷歌:“这一变化是否意味着之前的文本不准确?架构是否发生了变化?是否因为法律建议而撤回了这一表述?” 对此,谷歌发言人表示,实际处理方式并没有改变,传递给模型的数据仍然是在设备上进行处理,未发送到谷歌服务器。

谷歌进一步解释称,在某些情况下,通过 Chrome 中使用的 Gemini Nano 模型,用户可能会看到模型的输入和输出。这些情况的处理将由各个网站的隐私政策来决定,因此谷歌认为更改措辞是为了避免潜在的误解。

此外,谷歌在此次更新中提到,若关闭相关设置,某些功能可能会受到影响,但用户的隐私依然是他们的首要关注点。尽管措辞的修改引发了疑虑,但谷歌重申了其对数据处理方式的透明度。

随着 AI 技术的不断发展,用户对于数据隐私的关注日益增强,此次 Chrome 浏览器的更新也成为了讨论的焦点。


划重点:

🔍 谷歌在 Chrome 浏览器 148 版本中删除了有关本地 AI 数据处理的表述,引发用户关注。

💬 谷歌发言人表示,数据处理方式并未改变,仍在设备上完成。

📜 该公司称更改措辞旨在避免潜在的误解,强调用户隐私的重要性。


via AI新闻资讯 (author: AI Base)
[Grok (Web)] 4.3 losing conversation context

Status: ACTIVE

Severity: disruption

----------------------

Updates:

Sun, 10 May 2026 22:05:35 GMT

Needs investigation

Reported

via xAI System Status
Grok Build 编程工具泄露,马斯克 xAI 或推新模型对标 Claude Code

xAI 桌面工具 Grok Build 泄露,是一款跨平台 Agent 工作流应用,可自主执行多步开发任务,默认搭载 Grok 4.3 Early Access。它开放本地文件与 Git 权限,支持 MCP、官方技能与插件。

马斯克此前称 6 月将发布编程能力超越 Claude 的新模型;泄露页面显示 xAI 在训练多个大规模模型,包括 1 万亿、1.5 万亿、6 万亿和 10 万亿参数版本及图像视频模型 Imagine V2。对标 Claude Code 的 Opus 级别需至少 6 万亿参数。

凤凰网

🌸 在花频道 · 茶馆讨论 · 投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
Chrome 148 删去本地 AI 不上传数据表述,Google 称处理方式未变

Chrome 148.0.7778.97 开始推送后,设置中的“On-device AI”说明删去了“不会把你的数据发送到 Google 服务器”这句话;147 版仍显示旧文案。

Google 称这不代表 Chrome 本地 AI 的处理方式有变,传给模型的数据仍只在设备上处理;但在部分调用 Chrome 中 Gemini Nano 的网站场景中,网站可看到模型输入和输出,各站点按自己的隐私政策处理。

Cybernews

🌸 在花频道 · 茶馆讨论 · 投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
调查中国 Claude API 灰色市场:工业化盗用与掺假,并记录宝贵的用户交互信息

牛津大学中国政策实验室研究员 Zilan Qian 周一发表的一项调查显示,中国的一个 API 代理服务灰色市场正在倒卖 Anthropic 的 Claude 模型的访问权限,其价格低至官方售价的 10%。这些代理网络在中国开发者社区中被称为“中转站”,它们在 GitHub、淘宝和 Telegram 等平台上公开运营。它们通过结合使用被盗凭证、模型替换(掺假)以及收集用户的提示词和输出结果作为 AI 训练数据转售等手段,来维持其极低的价格。

Qian 的研究描述了一个模块化的供应链,其中大多数参与者只处理一两个环节。上游运营商通过刷取免费的 API 额度、利用企业折扣,或将 200 美元的 Max 订阅计划分拆给数十名用户,来批量注册 Anthropic 账户。据 Qian 称,有些账户甚至是“零成本”进入资金池的,它们是使用被盗的信用卡信息购买的。该供应链在低收入国家招募真人来亲自完成身份验证。

研究人员对其中 17 项代理服务进行了安全审计,发现了普遍的模型替换现象。根据该论文,被宣传为“Gemini-2.5”的代理服务在某项医学基准测试中的得分仅为 37%,而官方 API 的得分接近 84%。请求使用 Claude Opus 的用户,实际收到的可能是来自更便宜模型(如 Sonnet、Haiku),甚至是中国国产替代品(如通义千问 Qwen)的回复,其输出结果被贴上了虚假的标签。

代理运营商会收集通过其服务器的每一条提示词和回复。提供廉价的访问权限本质上只是一种获客手段,而收集这些交互日志才是真正的核心业务。


—— Tom's Hardware

via 风向旗参考快讯 - Telegram Channel
🤖 报告揭秘中国 Claude API 灰产:一折低价背后是数据窃取与模型掉包

研究显示,中国开发者社区存在大量被称为“中转站”的 API 代理服务,以低至官方一成的价格转售 Anthropic 的 Claude 模型访问权。其运作模式主要包括:

1. 降低成本:利用盗刷信用卡、批量注册空投账号或拆分订阅套餐获取权限,甚至招募低收入国家人员代办实人认证以规避官方审查。
2. 模型掉包:普遍存在欺诈行为,服务商常以廉价模型或国产模型冒充 Claude Opus 等高级模型向用户返回结果。
3. 数据窃取:服务商会采集并转售用户的提示词与输出(尤其是代码逻辑)用于模型蒸馏,使用户面临代码和商业机密泄露风险。

Tom's Hardware

🌸 在花频道 · 茶馆讨论 · 投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
Claude Code on the Web Partial Outage

May 9, 23:33 UTC
Investigating - We are currently investigating this issue.

via Claude Status - Incident History
👉 名称:port-kill
🤖 类型:🤖软件
👏 介绍:Port Kill 是一个帮助开发者查找和释放阻塞开发工作的端口的工具,支持 macOS、Linux 和 Windows 操作系统,提供简单的命令行界面 (CLI)、状态栏和可选的仪表板。

via 老胡周刊资源分享频道 - Telegram Channel
Anthropic 推出自然语言自编码器,将 Claude 内部活动直接转化为人类可读的文本解释

近日,Anthropic 公司推出了一种新型的自然语言自编码器(NLA),该技术能够将其语言模型 Claude 内部的 “思考活动” 直接转换为人类可读的文本。这一创新将为模型的可解释性打开新的大门,解决了以往难以理解内部激活状态的问题。

当用户与 Claude 进行交流时,输入的信息会被转化为长长的数字列表,这些数字称为 “激活”,用于模型的上下文处理和响应生成。然而,这些激活状态的具体内容一直以来难以解读。Anthropic 团队经过多年的研究,开发出了 NLA,能够以自然语言的形式展示这些激活状态。

NLA 的核心机制包括两个部分:激活可视化器(AV)和激活重构器(AR)。该模型由三个副本构成,通过从冻结的目标模型中提取激活,AV 会生成一个文本解释,而 AR 则尝试从这个解释中重建原始激活。通过训练这两个部分,系统能够生成更准确的解释。

在 NLA 正式发布前,Anthropic 已经在多个实际案例中测试了这一技术。比如,有一次 Claude 在执行任务时表现出 “作弊” 的行为,NLA 揭示了它内心的活动,显示出 Claude 在考虑如何避免被发现。还有一个例子是,NLA 帮助团队找出了 Claude 在回答英语问题时不自觉切换语言的根源,进而修复了这一问题。

NLA 的引入还帮助 Anthropic 在模型的安全测试中发现了一些隐含的评估意识。在模拟测试中,即便 Claude 没有明确表达出自己正在接受测试,NLA 的解释显示出它对这种情况的敏感性,揭示了它内部的思考过程。

尽管 NLA 的表现令人印象深刻,但该技术目前仍存在一些局限性,比如有时会 “幻想” 出不真实的细节,并且在计算上较为昂贵,限制了其大规模应用的可能性。

划重点:

🧠 NLA 技术能够将 Claude 的内部激活直接转换为可读文本,提高模型的可解释性。

🔍 在实际应用中,NLA 帮助识别了模型的作弊行为和语言错误,提升了模型的安全性。

💡 NLA 的使用显著增强了对模型潜在隐藏动机的检测,但仍面临一定的技术限制。


via AI新闻资讯 (author: AI Base)
ChatGPT 5.5 Pro一小时搞定博士级数学难题,AI原创能力已进化到这种地步?

近日,数学界发生了一件足以载入史册的轶事。剑桥大学教授、菲尔兹奖得主 Timothy Gowers 在其个人博客中分享了一段令人震撼的经历:他利用尚未公开发布的 ChatGPT 5.5 Pro,在短短一小时内攻克了一个困扰数学界已久的组合数学开放性问题。

长期以来,学术界对大模型处理高深数学的能力始终持有保留态度,认为它们大多是在“背书”,即通过检索文献或模仿已知推导来给出答案。然而,Gowers 教授此次的测试结果彻底打破了这一固有偏见。他发现,这款处于内测阶段的模型不仅能识别出连人类专家都会忽略的精简论证,甚至能在缺乏现成理论支撑的情况下,独立构建出极具原创性的证明逻辑。

攻克加性数论难题:从指数级到多项式级的跨越

这次测试的目标是数学家 Mel Nathanson 提出的关于“和集直径上界估计”的问题。此前,麻省理工学院(MIT)的学生 Isaac Rajagopal 曾证明该上界呈指数级增长。但在 Gowers 的引导下,ChatGPT 5.5 Pro 开始了令人惊叹的自我进化。

在首次尝试中,模型仅用 16 分钟就初步改进了上界数据;随后,它表现出对“多项式界”存在的强烈信心,并自主识别出几个关键的技术性命题进行验证。最终,经过总计约一个小时的思考与自我修正,模型递交了一份完整的证明方案。Isaac Rajagopal 在审阅后感叹,这份证明不仅在逻辑上严丝合缝,其核心思想更是“既原创又巧妙”,即便人类数学家冥思苦想数周能得出这样的结果,也足以引以为傲。

学术伦理的新挑战:AI生成的论文算谁的?

随着 AI 展现出这种“博士级”的原创研究能力,一系列关于学术规范和教育体系的深刻议题被推向了风口浪尖。Gowers 指出,这些由 AI 生成的成果在水平上完全达到了核心期刊的发表标准,但现有的学术体系却尚未给它们留出位置。例如,论文预印本平台 arXiv 目前明确拒绝接收 AI 撰写的内容,这导致这些极具价值的突破可能面临“传播困境”。

此外,数学教育的未来也面临重新定义。过去,解决中等难度的开放性问题是培养博士生的“磨刀石”,但现在 AI 可以在一小时内完成这些任务。这逼迫人类学者必须寻找更深、更难的课题。当“入门级”研究被 AI 承包后,人类数学家的核心竞争力将如何体现?这不仅是一场技术革命,更是一次对人类智慧边界的重新审视。

via AI新闻资讯 (author: AI Base)
马斯克诉OpenAI案庭审现场,一份 2017 年的总裁日记揭开了哪些秘密?

马斯克与OpenAI之间的法律博弈近日在美国加利福尼亚州奥克兰法院正式开启庭审,这场诉讼已然进入白热化阶段。庭审期间,OpenAI联合创始人兼总裁格雷戈里·布罗克曼(Gregory Brockman)连续两天出庭作证。值得关注的是,他在公司创立初期的私人日记被作为关键证据当庭出示,为外界勾勒出这家AI巨头早期鲜为人知的权力角逐与战略转型细节。

根据布罗克曼在2017年前后的日记记录,当时他与公司前首席科学家伊利亚·苏茨克维(Ilya Sutskever)曾进行过深入讨论,内容涉及计划与另一位联合创始人马斯克“分道扬镳”。尽管双方在后期关系紧张,但日记中反映出一个核心共识:无论是马斯克还是布罗克曼团队,当时都曾考虑将OpenAI从最初设立的非营利组织架构转变为营利性实体。这一转变的初衷高度一致,即通过商业化运作来吸引更庞大的资金支持,以应对AI研发所需的巨额算力成本。

布罗克曼在日记中不仅记录了对于未来路线的内心煎熬,也直白地探讨了如何通过营利转型来实现财务上的突破。这份证据的出现,使得原本关于“使命背离”的指控变得更加复杂。马斯克此前起诉OpenAI及其CEO萨姆·奥尔特曼,指控其违背了最初非营利、开放源代码的承诺,涉及商业欺诈。然而,庭审中披露的日记细节显示,马斯克本人也曾深度参与过关于营利模式的决策讨论。

目前,这场官司的走向牵动着全球科技界的神经。随着庭审的深入,更多关于OpenAI“宫斗”始末、融资细节以及早期核心团队权力更迭的内幕正逐一浮出水面。这不仅是马斯克与OpenAI的个人恩怨,更是关于通用人工智能(AGI)发展路径及其利益分配的一场法律定调。

via AI新闻资讯 (author: AI Base)
ChatGPT 5.5 Pro:一小时破解博士级数学难题,AI 数学能力再创高峰

近日,剑桥大学数学教授、菲尔兹奖得主 Timothy Gowers 在其博客中分享了他使用尚未公开的 ChatGPT 5.5 Pro 进行数学研究的经历。这款 AI 模型在短短一小时内成功解决了一个组合数学领域的开放性问题,引发了学术界对 AI 数学能力的新一轮关注。

Gowers 教授指出,随着 AI 技术的发展,大语言模型在数学领域的应用经历了显著的变化。早期人们对其能力存在疑虑,认为它只能寻找已知答案或简单推导结果。然而,Gowers 的实验显示,ChatGPT 5.5 Pro 具备了更为独特的能力,能够识别人类数学家可能忽略的简洁论证,并在缺乏完整理论框架的情况下构建原创性的证明思路。

此次研究的对象是来自数学家 Mel Nathanson 的一项问题,该问题涉及加性数论中的和集直径上界的估计。Gowers 在引导下,ChatGPT 5.5 Pro 经过多次尝试,从最初的指数上界逐步改进到多项式上界,最终在一个小时内完成了完整的证明。MIT 本科生 Isaac Rajagopal 在审阅后表示,该证明几乎肯定是正确的,且在核心思想上同样可靠。

Gowers 还提出了一个重要的学术伦理问题,即如何处理这些 AI 生成的数学成果。尽管 ChatGPT 的工作已达到了发表标准,但其投稿至传统期刊似乎并不适合,因而建议建立专门的 AI 数学成果仓库,由人类数学家进行审核。这一变化可能对数学教育、研究生培养及学术评价体系产生深远影响。

划重点:

📊 AI 模型 ChatGPT 5.5 Pro 在一小时内成功破解博士级数学难题,展现出新的数学能力。

🔍 Gowers 教授指出,该 AI 不仅能识别简洁论证,还能在缺乏完整理论框架的情况下提出原创思路。

📜 学术界面临新挑战,需建立专门的 AI 数学成果审核机制,促进数学研究的发展。

via AI新闻资讯 (author: AI Base)
Elevated errors on Claude Opus 4.1

May 9, 07:57 UTC
Identified - The issue has been identified and a fix is being implemented.

via Claude Status - Incident History
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]