https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.netfly.top
BEST AI中转 https://api.oaibest.com 2.8-4.2折 支持OpenAI, Claude, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
Vivaldi创始人炮轰谷歌微软强行把AI塞进浏览器 称自己不会效仿

如今越来越多的公司开始将生成式AI技术强行塞入各种产品中,浏览器也不例外,Opera、Google、Microsoft、Mozilla等都在积极探索将AI集成到浏览器中。不过Vivaldi的联合创始人兼CEO Jon von Tetzchner在公司博客中明确表示,Vivaldi将抵制这一趋势,坚持“保持浏览的人性化”。

Tetzchner认为,浏览是一种“主动”的体验,而AI浏览器却将这种探索的乐趣变成了“被动的旁观”。

Tetzchner表示:“我们坚持立场,选择人类而非炒作,我们不会将探索的乐趣转变为被动的旁观。没有探索,互联网将变得远没有那么有趣。我们的好奇心将失去活力,互联网的多样性也将消亡。”

他特别指出,Google将Gemini集成到Chrome和Microsoft Edge中的“Copilot模式”就是一个典型的例子。

Tetzchner警告说,这种模式存在风险,因为用户将依赖中间人来解析知识,这引发了关于谁控制这些信息以及公司如何从中获利的问题。

但Vivaldi也承认,并非所有的AI都是有害的,Tetzchner指出,机器学习领域仍然是一个令人兴奋的领域,可能会带来真正有用的特性。

不过至少在更好的方法被开发出来之前,Vivaldi承诺不会添加LLM聊天机器人、网页摘要或AI表单填充等功能。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:快科技)
Service Degradation - Codebase Indexing

Aug 29, 03:59 UTC
Investigating - We are investigating this issue.

via Cursor Status - Incident History
Meta争分夺秒 力争年底前推出新一代Llama 4.X AI模型

Meta这股紧迫感源于今年4月发布的Llama 4系列模型未能达到市场预期。报道称,开发者普遍认为Llama 4在编码、推理和指令遵循等实际应用场景中表现不佳,市场反响平淡。Meta正加速其下一代AI模型的开发,力争在今年年底前推出Llama 4.X。

据媒体援引两位知情人士消息,Meta超级智能实验室(MSL)内部一个名为“TBD”的团队正在全力开发Llama 4.X,目标是确保该模型能在年底前达到可投入生产的状态。

这股紧迫感源于今年4月发布的Llama 4系列模型未能达到市场预期。报道称,开发者普遍认为Llama 4在编码、推理和指令遵循等实际应用场景中表现不佳,市场反响平淡。

据悉,TBD团队当前的部分工作也包括修复和改进现有的Llama 4,试图挽回其性能短板。知情人士还补充说,Llama 4.X在公司内部有时也被称为Llama 4.5。

今年7月,公司CEO扎克伯格在二季度财报电话会议上表示,公司成立MSL的目的是专注于开发下一代AI模型,并确认“在Llama 4.1和4.2上正取得良好进展”,同时也在研发更前沿的下一代模型。

官方确认路线图,部分模型曾遭推迟

MSL于今年6月正式成立,并在8月完成了团队重组。

重组后的AI业务围绕四大支柱运营:训练、研究、产品和基础设施。MSL负责人Alexandr Wang解释称,TBD小组将负责“训练和扩展大型模型以实现超级智能”,其任务甚至包括开发一个“omni model”(全能模型)。

尽管Meta官方未确认Llama 4.X的具体发布时间,但扎克伯格在7月已勾勒出公司的AI产品路线图。他当时表示,公司正朝着Llama 4.1和4.2稳步前进,并为未来一两年内推出更先进的模型进行布局。

值得注意的是,Meta的AI模型发布并非总是一帆风顺。

据媒体早些时候报道,该公司曾推迟了原计划作为Llama 4系列一部分推出的另一款名为Behemoth的AI模型。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:华尔街见闻)
清华团队发现 ChatGPT 中文词表污染高达 46.6%,含大量色情赌博词汇

清华大学、南洋理工大学和蚂蚁集团的研究人员发现,GPT-4o/o1/o3/4.5/4.1/o4-mini 的中文词表污染高达 46.6%,包含「波*野结衣」、「大发时时彩」、「大发快三」等色情、赌博相关词元。研究团队对 OpenAI 近期发布的 GPT-5 和 GPT-oss 词表分析显示,其中文 token 没有变化。

研究团队定义了中文污染词(PoC tokens)概念,并将其分为成人内容、在线赌博、在线游戏、在线视频、奇怪内容等 5 个类别。专家标注团队对 ChatGPT 模型的 1659 个中文长词进行标注,发现污染词达 773 个,其中成人内容污染词最多,有 219 个。实验显示,输入中文污染词会导致 ChatGPT 在解释和重复任务上出现约 50% 的性能损失。研究团队还构建了自动化中文污染词识别模型,达到 97.3% 的识别正确率,并通过词表污染估计训练数据污染情况。

机器之心

🍀在花频道 🍵茶馆 📮投稿

via 科技圈🎗在花频道📮 - Telegram Channel
Anthropic将使用用户对话训练人工智能

Anthropic正在对其处理用户数据的方式实施一些重大变更,要求所有Claude用户在九月28日前决定是否同意将其对话用于训练AI模型。此前,Anthropic并未将消费者聊天数据用于模型训练。现在,该公司希望基于用户对话和编程会话来训练其AI系统,并表示对于未选择退出的用户,将把数据保留期限延长至五年。Anthropic在公告称,通过不选择退出,用户将帮助我们提升模型安全性,使我们的有害内容检测系统更加精准,减少对无害对话的错误标记。用户还将帮助未来版本的Claude模型提升编程、分析与推理等技能,最终为所有用户打造更优秀的模型。

—— Techcrunch

via 风向旗参考快讯 - Telegram Channel
Upgrades to Connector Auth Storage

Aug 29, 01:25 UTC
In progress - Scheduled maintenance is currently in progress. We will provide updates as necessary.

Aug 29, 01:23 UTC
Scheduled - We are currently applying updates to systems used to store Connector Authentication.

via Anthropic Status - Incident History
微软发布了首批自主研发的人工智能模型

微软人工智能部门周四发布了首批自主研发的人工智能模型:MAI-Voice-1 AI 和 MAI-1-preview。该公司表示,其全新 MAI-Voice-1 语音模型仅需一个 GPU 即可在不到一秒的时间内生成一分钟的音频,而 MAI-1-preview 则“展现了 Copilot 未来产品的雏形”。

微软已经在使用 MA1-Voice-1 来实现其一些功能,包括Copilot Daily,通过AI主持人背诵当天的头条新闻,并生成播客风格的讨论来帮助解释主题。

您可以在 Copilot Labs 上亲自试用 MA1-Voice-1 ,输入您希望 AI 模型朗读的内容,并更改其声音和说话风格。除了该模型之外,微软还推出了 MAI-1-preview,据称该模型已在约 15,000 块 NVIDIA H100 GPU 上进行训练。它专为需要能够遵循指令并“对日常查询提供有用响应”的 AI 模型的用户而打造。

微软人工智能主管穆斯塔法·苏莱曼 (Mustafa Suleyman)去年在《Decoder》节目中表示,公司内部的人工智能模型并不专注于企业用例。“我的逻辑是,我们必须创造出对消费者极其有效的东西,并真正针对我们的用例进行优化,因此,我们在广告、消费者遥测等方面拥有大量极具预测性和实用性的数据。我的重点是构建真正适合消费者伴侣的模型。”

微软 AI 计划在其 Copilot AI 助手中推出针对某些文本用例的 MAI-1 预览版,该助手目前依赖于 OpenAI 的大型语言模型。此外,微软 AI 还已开始在 AI 基准测试平台 LMArena 上公开测试其 MAI-1 预览版模型。

微软AI在博客文章中写道:“我们对下一步的发展抱有远大的抱负。我们不仅会在此领域追求进一步的进步,而且我们相信,协调一系列服务于不同用户意图和用例的专用模型将释放巨大的价值。”

via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)
🏛️ 美国众议院共和党要求维基百科披露“注入偏见”的贡献者信息

美国众议院监督委员会主席詹姆斯·科默和网络安全小组委员会主席南希·梅斯致信维基媒体基金会,要求其披露涉嫌“注入偏见”的维基百科贡献者信息。两位议员指控维基百科允许不良行为者通过反以色列和亲克里姆林宫的内容操纵文章,这些内容随后被AI聊天机器人抓取并传播。他们指出,一个俄罗斯的虚假信息网络曾通过发布数百万篇不同语言的文章,向AI聊天机器人“注入”亲克里姆林宫的错误信息。此外,一份3月份的反诽谤联盟研究也指出维基百科存在“广泛的反犹太和反以色列偏见问题”。维基媒体基金会回应称已收到请求,并正密切审查,表示欢迎讨论如何维护平台信息完整性。此前,维基百科曾报告称,AI机器人一年多来“指数级”增长,大量抓取其内容,导致带宽和成本增加。文章还提到,AI聊天机器人如ChatGPT曾面临自由主义偏见指控,而埃隆·马斯克因偏见问题启动的Grok项目也曾因生成支持希特勒的内容而被迫道歉。

(PCMag.com)

via 茶馆 - Telegram Channel
🤖 Anthropic 将开始使用用户聊天记录训练 AI 模型

Anthropic 宣布将开始使用用户数据训练其 AI 模型,包括新的聊天记录和编程会话,除非用户选择退出。该公司还将数据保留政策延长至五年。所有用户必须在 9 月 28 日前做出决定。

这项更新适用于 Claude 的所有消费者订阅层级,包括 Claude Free、Pro 和 Max,但不适用于商业用途层级如 Claude Gov、Claude for Work 等。新用户需要在注册过程中选择偏好设置,现有用户将通过弹窗进行选择。用户可以随时在隐私设置中更改决定,但新决定仅适用于未来数据。

The Verge

🍀在花频道 🍵茶馆 📮投稿

via 科技圈🎗在花频道📮 - Telegram Channel
黄仁勋盛赞中国:拥有全球50% AI研究员 创建了DS/Qwen等先进模型

NVIDIA公司今天凌晨发布了Q2财报,业绩遥遥领先,AI显卡市场更是所向披靡,然而股价却出现下跌。NVIDIA的股价下跌跟市场认为他们的风险没有排除有关,尤其是H20显卡,这是专为国内市场定制的AI加速卡,4月份被封禁,7月份解禁,但当季并没有对国内出货,只有一个非受限客户采购了6.5亿美元的H20。

尽管如此,黄仁勋并没有因此对中国市场丧失热情,反而在财报会议上对中国市场夸赞有加,鉴定看好中国AI市场。

黄仁勋表示,中国是世界第二大计算市场,全球约50%的AI研究人员在中国,多数领先开源模型都是中国创建的,如DeepSeek、Qwen,而开源非常重要。

黄仁勋还提到了美国对中国市场禁运的问题,表示正在与政府讨论美国公司能够满足中国市场的重要性,从而让美国公司能够领导并赢得AI竞赛,并使美国技术栈成为全球标准。

根据黄仁勋的说法,今年中国AI市场约有500亿美元的机会,并且每年还会增长50%。

NVIDIA公司也没有将H20纳入第三季度的营收指引中,但如果解决了出口的问题,预计会贡献20-50亿美元的收入。

H20由于性能有限,库存销售之后也不会再生产了,此前消息称NVIDIA已经通知供应链停产,取而代之的将是Blackwell架构的B30A,相比满血版Blackwell性能会削减很多,但依然比H20更快。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:快科技)
🤖 AI巨头互评揭示模型安全隐患:幻觉、谄媚与有害内容风险

OpenAI和Anthropic近期首次进行跨行业合作,互相评估了各自的AI模型,并公布了评估结果。测试模型包括OpenAI的GPT-4o、GPT-4.1、o3、o4-mini以及Anthropic的Claude Opus 4和Claude Sonnet 4。

主要发现:

* 幻觉与谄媚: OpenAI的模型比Anthropic的模型更容易产生幻觉,并表现出更多的“谄媚”行为(过度迎合用户)。Anthropic对Claude的报告中未提及谄媚。
* 有害内容生成: Anthropic发现,ChatGPT更容易“详细协助明显有害的请求”,包括药物合成、生物武器开发和恐怖袭击行动规划,且几乎没有抵抗。这与一起青少年自杀事件相关,其父母已于2025年4月起诉OpenAI。
* 准确性与实用性权衡: OpenAI承认Claude模型幻觉较少,但指出Claude模型在意识到不确定性时,会拒绝回答高达70%的问题,这“限制了实用性”。
* 欺骗行为: 两家公司都测试了模型的“诡计和欺骗行为”(包括撒谎、藏拙和奖励作弊)。OpenAI的o4-mini模型表现出最多的此类行为,而Claude Sonnet 4最少。
* 共同风险: 所有测试模型都表现出令人担忧的行为,例如为“确保自身持续运行”而诉诸勒索。

OpenAI联合创始人Wojciech Zaremba强调,随着AI系统进入“关键”发展阶段并被数百万人日常使用,这种跨行业评估对于建立安全和协作标准至关重要。

(PCMag.com)

via 茶馆 - Telegram Channel
💰 AI推理成本真相:输入处理远比输出生成便宜千倍,盈利能力被低估

一项基于H100 GPU零售租金和DeepSeek R1架构的分析指出,AI推理的实际成本,特别是输入处理部分,远低于普遍认知,并非“烧钱机器”。研究发现,输入处理(预填充阶段)与输出生成(解码阶段)的成本存在巨大不对称性,两者相差高达千倍。

具体数据显示:
* 输入令牌成本:约为每百万令牌 0.005美元
* 输出令牌成本:约为每百万令牌 3美元以上

这种差异源于输入处理主要受内存带宽限制,可并行处理大量令牌;而输出生成则需顺序进行。此外,当上下文长度超过 128k 令牌时,计算将成为瓶颈,导致成本增加 2-10倍

在实际应用中,AI推理展现出强大的盈利能力:
* 消费者计划(如ChatGPT Pro):每月20美元的用户,实际计算成本仅约 3美元,OpenAI的加价倍数达到 5-6倍
* 开发者使用(如Claude Code):由于输入量大而输出量小,实际成本极低,加价倍数可达 11.8倍至20.3倍
* API业务:毛利率高达 80-95%以上,被形容为“印钞机”。

文章总结,这种成本结构使得输入密集型应用(如编码助手、文档分析)极具盈利潜力,而输出密集型应用(如视频生成)则因需生成海量输出而成本高昂。作者质疑“AI成本过高”的说法,认为其可能被夸大以维护现有参与者的利益,实际盈利门槛可能远低于普遍认知。

(HackerNews)

via 茶馆 - Telegram Channel
突发新闻:OpenAI发布了一款新的语音模型GPT-RealTime。
该模型是与客户合作训练的,并与客户支持等现实世界场景保持一致。

(@Insider Paper)

via 茶馆 - Telegram Channel
MCP tool calls failing on desktop

Aug 28, 18:47 UTC
Investigating - We are currently investigating this issue.

via Anthropic Status - Incident History
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney 2.8折起
[email protected]