https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
Claude Code 测试交互式/init,支持按提示生成初始化文件

Claude Code 正在基于用户反馈测试新版 /init ,可通过环境变量 CLAUDE_CODE_NEW_INIT 开启。启用后,/init 会先询问用户要生成哪些文件,包括 CLAUDE.md、skills 和 hooks,再进入代码库探索和写入环节;未开启时,/init 默认直接生成 CLAUDE.md。

Thariq | Claude Code Docs

🌸 在花频道茶馆讨论投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
告别“纯净”时代:OpenAI 官宣将在 ChatGPT 免费版中投放广告

曾经坚持“无广告”体验的 OpenAI 终于向商业化压力妥协。本周日,OpenAI 发言人正式确认,公司计划在未来几周内开始向美国地区的 ChatGPT 免费版Go 版用户展示广告。这一举动标志着全球最受欢迎的 AI 聊天应用正式开启了大规模流量变现之路。

据悉,广告技术巨头 Criteo 已被选为首批合作伙伴,接入了 ChatGPT 的广告测试项目。Criteo 目前正向潜在广告主发起招商,要求每位客户的初始投放预算在 5 万至 10 万美元之间(约合人民币 34.5 万至 69 万元)。

入不敷出?昂贵算力逼出的变现招式

OpenAI 此次“变现”背后,是生成式 AI 领域日益沉重的财务压力。随着 ChatGPT 全球用户量的暴涨,支撑其运行的计算基础设施成本(尤其是 GPU 算力和电力消耗)正以惊人的速度攀升。为了在激烈的行业竞争中维持扩张,OpenAI 必须寻找除订阅制(Plus 会员)之外的多元化收入来源。

广告形式:文案与视觉素材的深度集成

与传统搜索引擎的侧边栏广告不同,OpenAI 建议广告主提供更多版本的文案与视觉素材,以实现更高的曝光频次。这意味着未来的 ChatGPT 广告可能会以更加自然、更具互动性的方式嵌入到 AI 的对话流中,而非简单的横幅挂件。

尽管 OpenAI 曾一度对广告持谨慎态度,但面对 Anthropic 等对手的步步紧逼以及庞大的研发投入,走上“广告支撑免费服务”的老路几乎成了必然选择。对于用户而言,这意味着未来在享受尖端 AI 技术的同时,可能需要付出一定的注意力成本。

随着美国市场的率先试点,这套广告系统未来极有可能推向全球。当“AI 助手”开始学习如何“带货”,OpenAI 的商业帝国也将从单一的工具属性向更加复杂的媒体平台属性跨越。

via AI新闻资讯 (author: AI Base)
腾讯推出微信ClawBot插件,个人AI助手“龙虾”可直连微信聊天

腾讯今日推出“微信ClawBot”插件,正式打通个人AI助手“OpenClaw”(龙虾)与微信的私密连接通道。该举措标志着腾讯正加速其模型生态与主流社交应用的无缝整合,为用户在移动端高频场景调用个人AI助手提供了便捷入口。

目前,该插件正逐步向用户放量。通过该插件,用户仅需两个步骤即可完成连接:首先在微信“我-设置-插件”中启用“微信ClawBot”,随后在运行OpenClaw的设备上执行官方安装命令,并用微信扫描生成的二维码进行绑定。连接成功后,用户可直接在微信聊天界面内向自己的AI助手发送指令并接收回复,将其应用于个人学习、工作问题与内容创作等场景。

官方强调,此通道为个人专用,其他用户无法添加,且目前不支持群聊,仅作为单向消息传输管道,不会自动化操作用户微信账号,保障了使用的私密性与安全性。除了面向个人微信的新插件,腾讯“龙虾”特攻队其他产品也已支持接入企业协同场景。QClaw、Workbuddy等均可通过官网下载客户端,在PC端一键扫码实现与企业微信的绑定。腾讯云亦提供了云端快捷配置方案,进一步降低了企业将AI助手集成至内部工作流的技术门槛。

此次微信ClawBot的发布,是腾讯将大模型能力嵌入超级应用、探索C端AI服务入口的关键一步。它不仅为OpenClaw的开发者与个人用户提供了更即时的交互方式,也预示着“AI助手即服务”正从独立工具向日常通讯场景深度渗透。随着各大厂商竞相布局模型与应用的结合点,如何安全、便捷地在社交生态内集成个人AI,已成为行业的重要探索方向。

via AI新闻资讯 (author: AI Base)
叫板微软!马斯克官宣“巨硬”计划:Grok 智能体即将接管你的电脑

在 AI 领域,马斯克 的野心正在从“聊天框”延伸至每一台 PC 的深度操作。

3月21日,马斯克 在 X 平台正式确认,备受瞩目的 Grok Computer 智能体即将上线。这一动作被外界解读为马斯克旗下 AI 平台 Grok 迈向系统级交互的关键一步,也是其此前透露的“巨硬(Macrohard)”计划的先行预览版。

什么是 Grok Computer?AI 界的“总指挥”

根据马斯克披露的构想,Grok的定位不再仅仅是一个问答助手,而是化身为电脑的“大脑决策中心”。其核心逻辑被划分为两个系统:

系统1(数字擎天柱): 负责基础的生理性反应,即执行具体的键盘、鼠标和实时屏幕操作。

系统2(Grok): 作为总指挥和导航者,负责深度理解世界,并指挥“数字擎天柱”去处理过去5秒内电脑屏幕上的所有复杂任务。

拳打微软:模拟整家公司的运行

马斯克 对这一项目的野心显然直指行业巨头。他曾表示,“巨硬”项目(Digital Optimus)的目标是实现高度的自动化:

企业级自动化: 能够处理海量的重复性文书任务。

模拟经营: 甚至具备模拟整个公司运作的潜力。

软硬协同: 未来,“数字擎天柱”AI 将与特斯拉 Optimus 机器人形成联动——机器人负责线下的实体体力活,AI 智能体则负责线上的文书办公。

从命名“Macrohard(巨硬)”就能看出,马斯克 正在公开叫板微软(Microsoft)。随着 Grok Computer 的推出,AI 代理(Agent)的战场将从云端对话转移到用户的桌面操作系统。当 AI 开始真正接管你的鼠标和键盘,桌面办公的效率革命或许就在眼前。

via AI新闻资讯 (author: AI Base)
力压全球巨头!国产大模型 MiniMax 连续五周夺得全球调用量冠军

在全球大模型竞速赛中,国产力量正展现出惊人的爆发力。根据最新行业数据显示,国产大模型 MiniMax M2.5 已连续五周霸榜全球大模型调用量冠军。这一成绩不仅刷新了国产 AI 在国际市场的活跃度纪录,更标志着以 MiniMax 为代表的中国大模型正在从“追随者”向“定义者”转型。

MiniMax 研发团队在受访时坦言,目前产品最核心的护城河在于极致的“性价比”。在实现同等智力水平的前提下,MiniMax 的调用成本与海外主流模型相比,竟然存在高达十几倍的巨大差距。这种近乎代差的成本优势,正吸引着全球开发者大规模倒戈。

技术与能源:构筑双重成本防线

这种令人咋舌的价格优势并非来自补贴,而是源于底层逻辑的创新。首先是技术架构创新:研发团队通过优化底层推理架构,实现了用更少的 Token 完成同样的复杂任务,从数学层面降低了单位成本。

其次是得益于国内的能源基建优势。在算力成本中,电费占比高达 70% 到 80%。对于动辄需要百万张显卡并行运算的 AI 集群而言,中国稳定且相对低廉的工业电价,为 AI 企业筑起了一道海外竞品难以逾越的成本屏障。

国产大模型的“出海”新范式

过去,国产软件出海多依靠运营和本地化。而现在,以 MiniMax 为代表的 AI 力量正通过“技术降本”实现降维打击。当模型能力不再是唯一变量,谁能以更低的成本提供稳定的智能输出,谁就能在商业化落地的下半场赢得先机。

随着调用量的持续霸榜,MiniMax 不仅证明了国产大模型在算法上的韧性,更展示了中国 AI 产业链在算力成本管控上的综合实力。这场由“性价比”引发的行业洗牌,或许才刚刚开始。

via AI新闻资讯 (author: AI Base)
OpenAI计划2026年底扩员至8000人,增设“技术大使”加速企业级应用落地

在全球科技巨头持续裁员的背景下,OpenAI正逆势开启大规模扩张。据《金融时报》报道,该公司计划在2026年底前将其员工总数由目前的4500人扩充至8000人。此次招聘重点覆盖产品开发、工程研发及销售部门,并特别增设“技术大使”(Technical Ambassadors)专家岗位,旨在通过现场指导协助企业深度集成AI工具,提升商业化落地效率。

这一扩张动作被视为OpenAI应对Anthropic及其Claude模型竞争的战略反击。金融科技公司Ramp发布的最新AI指数显示,尽管OpenAI仍占据企业市场最大份额(34.4%),但在新用户获取上正面临严峻挑战——约70%的首次购买AI服务的企业倾向于选择Anthropic。

为扭转局势,OpenAI近期频繁出招:今年2月,在Anthropic因限制军事应用与美国国防部(DoD)决裂后,OpenAI迅速填补空白,签署了为国防部提供分类及非分类项目模型支持的合同;同时,公司正与Brookfield Asset Management等顶级私募股权机构深入洽谈,计划成立价值100亿美元的合资企业,将其AI工具直接嵌入这些机构旗下的数百家投资组合公司中。

通过构建由“技术大使”和咨询伙伴(如McKinsey)组成的Frontier Alliance生态系统,OpenAI正试图从单纯的模型提供商转型为深度的企业解决方案商。分析认为,这种从“侧重消费端功能”向“深耕B端生产力”的重心转移,将决定其在即将到来的IPO进程中能否维持高估值并实现扭亏为盈。

via AI新闻资讯 (author: AI Base)
千问上线打车skill,可告诉AI“我要空气清新的车”

3月23日,千问上线打车能力,可一句话完成选车型、添加途经点、预约时间等操作,还支持“要空气清新的车,价格不超过30元”、“驾驶平稳”、“服务态度好”等个性化需求。

即便是复杂需求,用户只需直接表达,千问都能理解意图并完成车辆匹配。例如,“我们一家人想去什刹海看夕阳,打车去,6个人”,系统可自动判断人数并匹配商务车;而对于“去医院、车上有病人、要开得稳的老司机”,千问则会优先推荐驾驶平稳的车,还可以给司机捎句话,请“提前开窗通风”。行程结束后,用户直接通过“支付宝AI付”即可完成支付。

在途经点选择上,用户可以通过自然语言灵活调整。行程开始前,说“帮我打车到西湖乌龟潭,顺路先去西溪湿地北门送个朋友”,千问可自动添加途经点。同时也支持在行程开始后,一句话添加途经点。

打车能力也可与其他生态服务结合。此前,千问已上线点外卖、订机酒、出行导航等能力,打车上线后,用户即可通过连续指令完成多步骤安排,实现跨服务的串联执行。如“帮我订机场附近的酒店”后,可以继续说“帮我打车去这个酒店”,再让千问“帮我推荐酒店附近的本地特色菜”。

千问还让“打车”具备了记忆与预约能力。用户只需告诉千问家庭和公司地址,即可直接让千问“帮我打车回家”或“打车去公司”;说一句“下午6点半下班,帮我约车回家”,系统即可自动理解时间并完成预约。随着这些能力的逐步加强,千问将为用户带来更符合个人偏好的出行服务。

打车能力的接入,是千问“AI办事”向复杂生活场景延伸的重要一步。自去年11月上线以来,千问的AI办事能力被越来越多人使用。今年春节期间,有1.3亿用户在千问首次体验AI购物,其中超400万人为60岁以上人群。

via AI新闻资讯 (author: AI Base)
大厂不再需要 AI Lab?腾讯重组研发体系:混元 3.0 预计4 月发布

在通用大模型加速落地的下半场,互联网巨头的研发组织架构正迎来一场前所未有的“去实验室化”变革。

3月20日,腾讯内部的一则调整通知引发了行业震动:成立近十年的 腾讯 AI Lab 正式被撤销,其研究能力将被整体并入大模型体系。这一变动意味着,曾经作为集团级基础研究机构的 AI Lab,将告别“独立探索”时代,全面服务于混元大模型的迭代与应用。

研发路径聚焦:混元团队成为唯一中枢

根据最新的组织架构调整,原 AI Lab 的部分核心人员已并入大语言模型部,向腾讯首席 AI 科学家 姚顺雨 汇报。作为普林斯顿博士及前 OpenAI 研究员,姚顺雨目前同时统领 AI Infra(基础设施)与大语言模型负责人,成为了腾讯 AI 战略的组织中枢。

这一调整解决了腾讯内部长期存在的研发分散问题。此前,腾讯的 AI 能力分布在不同事业群,导致协同成本较高。通过此次归拢,腾讯将实现研究、工程与产品反馈的超短链路闭环。

混元3.0稳了?4月将开启全量公测

组织重组的直接成果指向了即将发布的 混元3.0。在最近的业绩发布会上,腾讯高层透露,混元3.0目前正在内部业务测试中,预计将于 4月份 正式对外推出。新版本将在推理能力和 Agent(智能体)构建上实现显著突破。

大厂共识:弱化实验室,强化大平台

腾讯的动作并非孤例,国内主流互联网公司均在进行相似的结构重塑:

字节跳动: 原有 AI Lab 体系已整合进 Seed 团队,追求类似 OpenAI 的高频迭代模式。

阿里巴巴: 通义体系近期被纳入 Token 事业群,强调模型规模与业务增长的直接联动。

这种趋势反映了大模型时代的硬逻辑:模型训练已成为一项庞大的系统工程,单一方向的研究突破已难以独立转化为竞争优势。只有将算力、数据、工程与真实的产品反馈深度耦合,才能在日新月异的 AI 竞赛中守住身位。

对于腾讯而言,撤销 AI Lab 并非放弃基础研究,而是将“实验室里的火种”直接投入到大模型的“工业引擎”中。随着2026年腾讯对 AI 投资计划翻倍,这场由姚顺雨挂帅、全员压上混元主线的战役,正进入最关键的交付期。

via AI新闻资讯 (author: AI Base)
律师费也“打折”:Anthropic 15 亿美元版权和解案迎来新进展

在 AI 行业最具标杆意义的版权纠纷案中,关于“分蛋糕”的争论再次引发关注。据最新法庭文件显示,针对人工智能巨头 Anthropic 此前达成的 15 亿美元版权和解案,原告律师团已主动将其申请的律师费用从 3 亿美元大幅下调至 1.875 亿美元。

这一动作并非律所“慷慨解囊”,而是迫于法院和被告方的双重压力。此前,Anthropic 公司以及负责审理此案的法官均对高达 3 亿美元的“天价”律师费表示反对,认为该数额严重溢价,且涉及不合理的费用分摊计划。

15 亿美元和解背后:AI 训练的代价

作为 Claude 系列模型的开发者,Anthropic 于去年 8 月同意支付 15 亿美元,以了结有关其使用数十万本盗版图书训练 AI 模型的指控。这不仅是目前规模最大的版权集体诉讼和解案,更确立了一个行业先例:Anthropic 承诺销毁相关盗版数据集,并保证未来的商用模型不再使用此类素材。

根据协议,每部受版权保护作品的持有者将获得超过 3000 美元的赔偿。这种高额的赔付标准,被视为传统内容创作界对 AI “无偿投喂”模式的一次重大胜利。

律师费争议:谁在代表“集体利益”?

本次费用的下调主要集中在律师团的内部结构上。原本的 3 亿美元申请中,包含了分给另外三家并未被正式指定为集体诉讼代表律所的 7500 万美元。法官明确指出,主导律所不能私自“指定他人”共同承担责任并分钱。在新提交的文件中,代理律师表示接受法院建议,目前的 1.875 亿美元申请(约占和解基金的 12.5%)将仅基于官方指定的代理律师工作量。

四月听证会:和解将进入终章

旧金山联邦地区法院已定于 4 月 23 日举行听证会,届时将决定是否最终批准这一修正后的和解协议。随着律师费这一核心阻碍的化解,这桩困扰 AI 界许久的版权大案有望正式落下帷幕。

对于整个 AI 产业而言,这笔巨额和解金不仅是为过去的行为买单,更像是一张通往“合规时代”的入场券。随着法律边界的清晰,未来 AI 模型与版权方之间的合作模式将从“先使用后打官司”逐步转向“先授权后训练”的正轨。

via AI新闻资讯 (author: AI Base)
马斯克披露Terafab芯片工厂计划,拟为特斯拉与SpaceX提供自研算力

埃隆·马斯克近日在德克萨斯州奥斯汀举行的一场活动中,正式披露了旗下SpaceX与特斯拉在半导体制造领域的深度合作蓝图。据彭博社报道,马斯克计划在特斯拉奥斯汀总部及“超级工厂”附近兴建一座名为“Terafab”的专用芯片制造中心。此举旨在通过垂直整合供应链,彻底解决现有半导体产能无法满足其在人工智能与机器人技术领域爆发式需求的核心矛盾。

马斯克在活动现场直言,目前半导体厂商的生产速度已成为其技术演进的瓶颈,“要么建造Terafab,要么就面临芯片短缺”,因此自主制造已成必然选择。根据披露的技术愿景,Terafab的目标是生产能够支持每年地球端100至200吉瓦、以及太空端1太瓦计算能力的超高性能芯片。这一宏大目标不仅涵盖了特斯拉FSD及Optimus机器人的本地算力需求,更预示了SpaceX在星际通信与深空计算领域的战略布局。

尽管该计划展示了马斯克跨行业整合的雄心,但其并未给出明确的建设时间表。考虑到马斯克缺乏半导体制造的专业背景,且此前存在多次过度承诺交付周期的记录,行业分析人士对Terafab的落地效率仍持谨慎态度。然而,若该项目成功实施,将标志着马斯克生态系统从应用层、模型层进一步下沉至底层的物理算力层,在全球AI底层硬件竞争中占据关键身位。

via AI新闻资讯 (author: AI Base)
Cursor发布Composer2模型,承认底层基于Moonshot AI开源底座Kimi

本周,拥有高估值的美国AI编程初创公司Cursor正式推出新一代模型Composer2,官方宣称其具备“前沿级编码智能”。然而,该模型发布后不久即陷入舆论风暴。社交平台X用户Fynn通过代码取证指出,Composer2的底层疑似为Moonshot AI(月之暗面)近期发布的开源模型Kimi k2.5,并质疑Cursor在未重命名模型ID的情况下直接加装了强化学习功能。

针对质疑,Cursor开发者教育副总裁Lee Robinson迅速作出回应,承认Composer2确实基于开源项目开发,但他强调最终模型的计算量仅有约四分之一来自开源底座,其余部分均源自Cursor的自主训练,这使得Composer2在基准测试中的表现与原生Kimi模型存在显著差异。随后,Moonshot AI官方证实了这一商业授权合作,并表示其Kimi-k2.5模型通过Cursor的持续预训练与高算力强化学习得到了有效整合,符合开放模型生态的许可条款。

尽管Cursor联合创始人Aman Sanger最终承认未在首发公告中提及Kimi底座属于“疏忽”,但这起事件再次引发了硅谷对“技术纯洁性”与全球供应链协同的讨论。在全球AI军备竞赛升温的背景下,顶尖美国初创公司选择中国高性能开源底座进行二次开发,既体现了开源生态跨国流动的技术逻辑,也凸显了科技公司在品牌叙事与供应链透明度之间的微妙平衡。

via AI新闻资讯 (author: AI Base)
价格仅为海外模型十分之一!MiniMax M2.5 连夺五周全球调用量冠军

国产大模型正凭借极致的性价比,在全球算力市场上演一场“降维打击”。

据最新报道,国产大模型 MiniMax M2.5 已连续五周稳居全球大模型调用量榜首。这一成绩不仅刷新了国产模型在国际舞台上的活跃纪录,更揭示了中国 AI 产业在全球竞争中的核心杀手锏:在同等能力水平下,国产模型的价格与海外竞品相比竟有十几倍的巨大差距。

这种让对手汗颜的性价比优势,主要源于两大战略护城河:

底层架构创新:让 Token 更“值钱”

MiniMax 研发人员指出,通过底层架构的根本性创新,模型推理成本得到了大幅压降。简单来说,由于算法效率的提升,模型能够用更少的 Token 消耗完成同样的复杂任务,从技术层面直接稀释了用户的算力成本。

能源与基建红利:筑起算力防线

除了技术端的优化,中国在算力基础设施上的能源优势同样不可忽视。业内数据显示,电费在算力成本中的占比高达 70% 至 80%。对于拥有百万张显卡并行运算规模的 AI 集群而言,中国稳定的能源供应和相对低廉的工业电价,为 AI 产业提供了一道极具竞争力的“成本防火墙”。

从“算力消耗”到“智力产出”,以 MiniMax 为代表的国产大模型正通过技术迭代与成本控制的双重挤压,快速收割全球市场份额。当 AI 竞争进入下半场,这种“高智商、低价格”的模式,或许将彻底改写全球大模型商业化的游戏规则。

via AI新闻资讯 (author: AI Base)
超越美国!中国 AI 调用量领跑全球:算力产业链开启“全链通胀”模式

中国大模型正在以惊人的速度重塑全球 AI 的消费版图。

根据全球最大 AI 模型 API 聚合平台 OpenRouter 最新发布的数据显示,截至 3 月 15 日,中国 AI 大模型的周调用量达到了惊人的 4.69 万亿 Token。这不仅是国产大模型连续第二周在调用量上超越美国,更实现了全球前三名被中国模型包揽的壮举。

Token 消耗爆炸:从问答到 Agent 的质变

这种指数级的增长,核心动力源于 OpenClaw 等 AI Agent(智能体)应用的爆发。与传统的单次问答不同,Agent 具备自主执行任务的链式反应特性:

● 消耗强度: 传统对话可能仅消耗数千 Token,而一个复杂的 Agent 任务链动辄达到数十万甚至百万级别。
● 增长预测: 摩根大通预测,中国 AI 推理 Token 的消耗量将从 2025 年的 10 千万亿,飙升至 2030 年的 3900 千万亿,五年间增长约 370 倍。

算力产业链:进入“全链通胀”周期

随着调用量的狂飙,国产算力全链条正迎来景气度的高速外溢。国金证券 预判,2026 年算力产业链将进入“全链通胀”周期,行业热度将从核心芯片端,全面蔓延至 AIDC、云服务、配套电力设备及服务器等各个环节。

云厂商的商业逻辑也随之发生剧变:从单纯的“算力租赁商”转变为 “Agent 数字员工的工位提供商”。通过一键部署和价格补贴,巨头们正试图在应用入口阶段就掌控下一代 AI 的分发权。

领跑企业:国产算力的安全与出海

在这一波算力红利中,头部企业已率先完成布局:

● 青云科技: 旗下的 AI 算力云服务“基石智算”已完成 Clawdbot 应用升级,通过专属密钥体系构建起安全屏障,解决了企业级应用最核心的安全痛点。
● 优刻得: 作为行业内首家实现云端部署 Openclaw 镜像的厂商,已在美国、新加坡、日本等多个海外节点上线服务,开启了国产 AI 算力的全球化收割模式。

当中国模型在调用量上完成对美国的“反超”,国产算力产业链正迎来量价齐升的金算时代。在这场 Token 驱动的竞赛中,谁能提供更稳、更安全、更具性价比的“数字工位”,谁就将握住未来五年 AI 商业化的命门。

via AI新闻资讯 (author: AI Base)
知识界最后的反击?大英百科全书状告 OpenAI:AI 模型被指“搭便车”

当最古老的知识权威遇上最激进的 AI 巨头,一场足以重塑行业规则的版权大战在曼哈顿联邦法院拉开帷幕。

近日,大英百科全书公司(Encyclopaedia Britannica)及其子公司 梅里亚姆—韦伯斯特(Merriam-Webster)正式起诉 OpenAI。这场诉讼的核心直指生成式 AI 的“原罪”:未经授权使用近 10 万篇高质量百科文章训练模型,究竟是技术创新的“合理使用”,还是对人类知识遗产的“系统性侵权”?

输入端之争:是“转换性使用”还是“搭便车”?

在诉状中,大英百科全书 痛斥 ChatGPT 是在“搭便车”。他们认为,百科条目是经过严格编撰的原创版权产品,具有极高的商业价值。而 OpenAI 辩称其训练基于公开数据,符合“合理使用”原则,属于推动创新的转换性行为。

输出端实锤:AI 会“背诵”原文吗?

诉讼中最具杀伤力的证据在于“记忆化”复现。大英百科全书 提交的对比显示,在特定提示下,ChatGPT 产生的内容与原作“逐字相同或高度近似”。这意味着 AI 不仅仅是在学习知识,更是在未付费的情况下直接向用户分发受版权保护的原文,甚至通过生成摘要“蚕食”了原平台的网络流量。

品牌危机:当 AI 的“幻觉”挂上权威的名号

除了版权,本次诉讼还罕见地涉及了商标与署名权。大英百科全书 指控 OpenAI 在 AI 产生的错误信息中不当引用其品牌。对于拥有 250 多年历史的权威机构而言,AI 的“一本正经胡说八道”如果冠以其名,损害的将是其赖以生存的知识公信力。

行业风向标:来源秩序的保卫战

目前,大英百科全书 已要求法院下令停止侵权并索赔。业内专家分析,本案可能与 纽约时报 诉 OpenAI 案合并审理。

随着 Perplexity AI 等初创公司也纷纷陷入类似纠纷,传统知识机构正在集体向 AI 时代的“伸手党”行为宣战。这场判决的结果,将决定未来 AI 发展的成本底线,以及在算力狂飙的时代,人类原创知识的高地是否还能获得应有的尊严。

via AI新闻资讯 (author: AI Base)
Claude Console login down

Mar 22, 18:43 UTC
Monitoring - A mitigation has been applied. Logins have returned to normal, the team is continuing to monitor the situation.

Mar 22, 18:33 UTC
Update - We are investigating an issue with users authenticating to claude.ai and Claude Console (platform.claude.com)

Mar 22, 18:31 UTC
Investigating - We are investigating an issue preventing logins on Claude Console (platform.claude.com)

via Claude Status - Incident History
微软承诺减少 Copilot 集成,允许用户无限期推迟更新

2026-03-21 20:42 by 量子之夜

Windows 操作系统作为微软的核心产品其质量过去几年显著下降,每个月的例行安全更新在修复 bug 的同时还会带来额外问题,而微软还在不断给操作系统塞入用户并不需要的 AI 功能。微软今年早先时候承诺将致力于改进 Windows 的质量,现在官方博客公布了它准备采取哪些措施的细节:任务栏定制,任务栏不再固定在底部,可以移动到屏幕的任意一侧;减少记事本等应用中的 Copilot 集成;用户可以控制 Windows 更新时间,允许忽略更新或无限期推迟更新,重启或关机而不安装更新;等等。

https://blogs.windows.com/windows-insider/2026/03/20/our-commitment-to-windows-quality/

#Windows

via Solidot - Telegram Channel
Delayed response completion on Claude.ai

Mar 22, 11:14 UTC
Investigating - Since approximately 20:00 UTC / 13:00 PT on Friday, March 20, Claude.ai responses may appear to "hang" for around 5 seconds after the text has finished streaming before the message completes. The Anthropic API is not affected.

via Claude Status - Incident History
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]