https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
千问上线打车skill,可告诉AI“我要空气清新的车”

3月23日,千问上线打车能力,可一句话完成选车型、添加途经点、预约时间等操作,还支持“要空气清新的车,价格不超过30元”、“驾驶平稳”、“服务态度好”等个性化需求。

即便是复杂需求,用户只需直接表达,千问都能理解意图并完成车辆匹配。例如,“我们一家人想去什刹海看夕阳,打车去,6个人”,系统可自动判断人数并匹配商务车;而对于“去医院、车上有病人、要开得稳的老司机”,千问则会优先推荐驾驶平稳的车,还可以给司机捎句话,请“提前开窗通风”。行程结束后,用户直接通过“支付宝AI付”即可完成支付。

在途经点选择上,用户可以通过自然语言灵活调整。行程开始前,说“帮我打车到西湖乌龟潭,顺路先去西溪湿地北门送个朋友”,千问可自动添加途经点。同时也支持在行程开始后,一句话添加途经点。

打车能力也可与其他生态服务结合。此前,千问已上线点外卖、订机酒、出行导航等能力,打车上线后,用户即可通过连续指令完成多步骤安排,实现跨服务的串联执行。如“帮我订机场附近的酒店”后,可以继续说“帮我打车去这个酒店”,再让千问“帮我推荐酒店附近的本地特色菜”。

千问还让“打车”具备了记忆与预约能力。用户只需告诉千问家庭和公司地址,即可直接让千问“帮我打车回家”或“打车去公司”;说一句“下午6点半下班,帮我约车回家”,系统即可自动理解时间并完成预约。随着这些能力的逐步加强,千问将为用户带来更符合个人偏好的出行服务。

打车能力的接入,是千问“AI办事”向复杂生活场景延伸的重要一步。自去年11月上线以来,千问的AI办事能力被越来越多人使用。今年春节期间,有1.3亿用户在千问首次体验AI购物,其中超400万人为60岁以上人群。

via AI新闻资讯 (author: AI Base)
大厂不再需要 AI Lab?腾讯重组研发体系:混元 3.0 预计4 月发布

在通用大模型加速落地的下半场,互联网巨头的研发组织架构正迎来一场前所未有的“去实验室化”变革。

3月20日,腾讯内部的一则调整通知引发了行业震动:成立近十年的 腾讯 AI Lab 正式被撤销,其研究能力将被整体并入大模型体系。这一变动意味着,曾经作为集团级基础研究机构的 AI Lab,将告别“独立探索”时代,全面服务于混元大模型的迭代与应用。

研发路径聚焦:混元团队成为唯一中枢

根据最新的组织架构调整,原 AI Lab 的部分核心人员已并入大语言模型部,向腾讯首席 AI 科学家 姚顺雨 汇报。作为普林斯顿博士及前 OpenAI 研究员,姚顺雨目前同时统领 AI Infra(基础设施)与大语言模型负责人,成为了腾讯 AI 战略的组织中枢。

这一调整解决了腾讯内部长期存在的研发分散问题。此前,腾讯的 AI 能力分布在不同事业群,导致协同成本较高。通过此次归拢,腾讯将实现研究、工程与产品反馈的超短链路闭环。

混元3.0稳了?4月将开启全量公测

组织重组的直接成果指向了即将发布的 混元3.0。在最近的业绩发布会上,腾讯高层透露,混元3.0目前正在内部业务测试中,预计将于 4月份 正式对外推出。新版本将在推理能力和 Agent(智能体)构建上实现显著突破。

大厂共识:弱化实验室,强化大平台

腾讯的动作并非孤例,国内主流互联网公司均在进行相似的结构重塑:

字节跳动: 原有 AI Lab 体系已整合进 Seed 团队,追求类似 OpenAI 的高频迭代模式。

阿里巴巴: 通义体系近期被纳入 Token 事业群,强调模型规模与业务增长的直接联动。

这种趋势反映了大模型时代的硬逻辑:模型训练已成为一项庞大的系统工程,单一方向的研究突破已难以独立转化为竞争优势。只有将算力、数据、工程与真实的产品反馈深度耦合,才能在日新月异的 AI 竞赛中守住身位。

对于腾讯而言,撤销 AI Lab 并非放弃基础研究,而是将“实验室里的火种”直接投入到大模型的“工业引擎”中。随着2026年腾讯对 AI 投资计划翻倍,这场由姚顺雨挂帅、全员压上混元主线的战役,正进入最关键的交付期。

via AI新闻资讯 (author: AI Base)
律师费也“打折”:Anthropic 15 亿美元版权和解案迎来新进展

在 AI 行业最具标杆意义的版权纠纷案中,关于“分蛋糕”的争论再次引发关注。据最新法庭文件显示,针对人工智能巨头 Anthropic 此前达成的 15 亿美元版权和解案,原告律师团已主动将其申请的律师费用从 3 亿美元大幅下调至 1.875 亿美元。

这一动作并非律所“慷慨解囊”,而是迫于法院和被告方的双重压力。此前,Anthropic 公司以及负责审理此案的法官均对高达 3 亿美元的“天价”律师费表示反对,认为该数额严重溢价,且涉及不合理的费用分摊计划。

15 亿美元和解背后:AI 训练的代价

作为 Claude 系列模型的开发者,Anthropic 于去年 8 月同意支付 15 亿美元,以了结有关其使用数十万本盗版图书训练 AI 模型的指控。这不仅是目前规模最大的版权集体诉讼和解案,更确立了一个行业先例:Anthropic 承诺销毁相关盗版数据集,并保证未来的商用模型不再使用此类素材。

根据协议,每部受版权保护作品的持有者将获得超过 3000 美元的赔偿。这种高额的赔付标准,被视为传统内容创作界对 AI “无偿投喂”模式的一次重大胜利。

律师费争议:谁在代表“集体利益”?

本次费用的下调主要集中在律师团的内部结构上。原本的 3 亿美元申请中,包含了分给另外三家并未被正式指定为集体诉讼代表律所的 7500 万美元。法官明确指出,主导律所不能私自“指定他人”共同承担责任并分钱。在新提交的文件中,代理律师表示接受法院建议,目前的 1.875 亿美元申请(约占和解基金的 12.5%)将仅基于官方指定的代理律师工作量。

四月听证会:和解将进入终章

旧金山联邦地区法院已定于 4 月 23 日举行听证会,届时将决定是否最终批准这一修正后的和解协议。随着律师费这一核心阻碍的化解,这桩困扰 AI 界许久的版权大案有望正式落下帷幕。

对于整个 AI 产业而言,这笔巨额和解金不仅是为过去的行为买单,更像是一张通往“合规时代”的入场券。随着法律边界的清晰,未来 AI 模型与版权方之间的合作模式将从“先使用后打官司”逐步转向“先授权后训练”的正轨。

via AI新闻资讯 (author: AI Base)
马斯克披露Terafab芯片工厂计划,拟为特斯拉与SpaceX提供自研算力

埃隆·马斯克近日在德克萨斯州奥斯汀举行的一场活动中,正式披露了旗下SpaceX与特斯拉在半导体制造领域的深度合作蓝图。据彭博社报道,马斯克计划在特斯拉奥斯汀总部及“超级工厂”附近兴建一座名为“Terafab”的专用芯片制造中心。此举旨在通过垂直整合供应链,彻底解决现有半导体产能无法满足其在人工智能与机器人技术领域爆发式需求的核心矛盾。

马斯克在活动现场直言,目前半导体厂商的生产速度已成为其技术演进的瓶颈,“要么建造Terafab,要么就面临芯片短缺”,因此自主制造已成必然选择。根据披露的技术愿景,Terafab的目标是生产能够支持每年地球端100至200吉瓦、以及太空端1太瓦计算能力的超高性能芯片。这一宏大目标不仅涵盖了特斯拉FSD及Optimus机器人的本地算力需求,更预示了SpaceX在星际通信与深空计算领域的战略布局。

尽管该计划展示了马斯克跨行业整合的雄心,但其并未给出明确的建设时间表。考虑到马斯克缺乏半导体制造的专业背景,且此前存在多次过度承诺交付周期的记录,行业分析人士对Terafab的落地效率仍持谨慎态度。然而,若该项目成功实施,将标志着马斯克生态系统从应用层、模型层进一步下沉至底层的物理算力层,在全球AI底层硬件竞争中占据关键身位。

via AI新闻资讯 (author: AI Base)
Cursor发布Composer2模型,承认底层基于Moonshot AI开源底座Kimi

本周,拥有高估值的美国AI编程初创公司Cursor正式推出新一代模型Composer2,官方宣称其具备“前沿级编码智能”。然而,该模型发布后不久即陷入舆论风暴。社交平台X用户Fynn通过代码取证指出,Composer2的底层疑似为Moonshot AI(月之暗面)近期发布的开源模型Kimi k2.5,并质疑Cursor在未重命名模型ID的情况下直接加装了强化学习功能。

针对质疑,Cursor开发者教育副总裁Lee Robinson迅速作出回应,承认Composer2确实基于开源项目开发,但他强调最终模型的计算量仅有约四分之一来自开源底座,其余部分均源自Cursor的自主训练,这使得Composer2在基准测试中的表现与原生Kimi模型存在显著差异。随后,Moonshot AI官方证实了这一商业授权合作,并表示其Kimi-k2.5模型通过Cursor的持续预训练与高算力强化学习得到了有效整合,符合开放模型生态的许可条款。

尽管Cursor联合创始人Aman Sanger最终承认未在首发公告中提及Kimi底座属于“疏忽”,但这起事件再次引发了硅谷对“技术纯洁性”与全球供应链协同的讨论。在全球AI军备竞赛升温的背景下,顶尖美国初创公司选择中国高性能开源底座进行二次开发,既体现了开源生态跨国流动的技术逻辑,也凸显了科技公司在品牌叙事与供应链透明度之间的微妙平衡。

via AI新闻资讯 (author: AI Base)
价格仅为海外模型十分之一!MiniMax M2.5 连夺五周全球调用量冠军

国产大模型正凭借极致的性价比,在全球算力市场上演一场“降维打击”。

据最新报道,国产大模型 MiniMax M2.5 已连续五周稳居全球大模型调用量榜首。这一成绩不仅刷新了国产模型在国际舞台上的活跃纪录,更揭示了中国 AI 产业在全球竞争中的核心杀手锏:在同等能力水平下,国产模型的价格与海外竞品相比竟有十几倍的巨大差距。

这种让对手汗颜的性价比优势,主要源于两大战略护城河:

底层架构创新:让 Token 更“值钱”

MiniMax 研发人员指出,通过底层架构的根本性创新,模型推理成本得到了大幅压降。简单来说,由于算法效率的提升,模型能够用更少的 Token 消耗完成同样的复杂任务,从技术层面直接稀释了用户的算力成本。

能源与基建红利:筑起算力防线

除了技术端的优化,中国在算力基础设施上的能源优势同样不可忽视。业内数据显示,电费在算力成本中的占比高达 70% 至 80%。对于拥有百万张显卡并行运算规模的 AI 集群而言,中国稳定的能源供应和相对低廉的工业电价,为 AI 产业提供了一道极具竞争力的“成本防火墙”。

从“算力消耗”到“智力产出”,以 MiniMax 为代表的国产大模型正通过技术迭代与成本控制的双重挤压,快速收割全球市场份额。当 AI 竞争进入下半场,这种“高智商、低价格”的模式,或许将彻底改写全球大模型商业化的游戏规则。

via AI新闻资讯 (author: AI Base)
超越美国!中国 AI 调用量领跑全球:算力产业链开启“全链通胀”模式

中国大模型正在以惊人的速度重塑全球 AI 的消费版图。

根据全球最大 AI 模型 API 聚合平台 OpenRouter 最新发布的数据显示,截至 3 月 15 日,中国 AI 大模型的周调用量达到了惊人的 4.69 万亿 Token。这不仅是国产大模型连续第二周在调用量上超越美国,更实现了全球前三名被中国模型包揽的壮举。

Token 消耗爆炸:从问答到 Agent 的质变

这种指数级的增长,核心动力源于 OpenClaw 等 AI Agent(智能体)应用的爆发。与传统的单次问答不同,Agent 具备自主执行任务的链式反应特性:

● 消耗强度: 传统对话可能仅消耗数千 Token,而一个复杂的 Agent 任务链动辄达到数十万甚至百万级别。
● 增长预测: 摩根大通预测,中国 AI 推理 Token 的消耗量将从 2025 年的 10 千万亿,飙升至 2030 年的 3900 千万亿,五年间增长约 370 倍。

算力产业链:进入“全链通胀”周期

随着调用量的狂飙,国产算力全链条正迎来景气度的高速外溢。国金证券 预判,2026 年算力产业链将进入“全链通胀”周期,行业热度将从核心芯片端,全面蔓延至 AIDC、云服务、配套电力设备及服务器等各个环节。

云厂商的商业逻辑也随之发生剧变:从单纯的“算力租赁商”转变为 “Agent 数字员工的工位提供商”。通过一键部署和价格补贴,巨头们正试图在应用入口阶段就掌控下一代 AI 的分发权。

领跑企业:国产算力的安全与出海

在这一波算力红利中,头部企业已率先完成布局:

● 青云科技: 旗下的 AI 算力云服务“基石智算”已完成 Clawdbot 应用升级,通过专属密钥体系构建起安全屏障,解决了企业级应用最核心的安全痛点。
● 优刻得: 作为行业内首家实现云端部署 Openclaw 镜像的厂商,已在美国、新加坡、日本等多个海外节点上线服务,开启了国产 AI 算力的全球化收割模式。

当中国模型在调用量上完成对美国的“反超”,国产算力产业链正迎来量价齐升的金算时代。在这场 Token 驱动的竞赛中,谁能提供更稳、更安全、更具性价比的“数字工位”,谁就将握住未来五年 AI 商业化的命门。

via AI新闻资讯 (author: AI Base)
知识界最后的反击?大英百科全书状告 OpenAI:AI 模型被指“搭便车”

当最古老的知识权威遇上最激进的 AI 巨头,一场足以重塑行业规则的版权大战在曼哈顿联邦法院拉开帷幕。

近日,大英百科全书公司(Encyclopaedia Britannica)及其子公司 梅里亚姆—韦伯斯特(Merriam-Webster)正式起诉 OpenAI。这场诉讼的核心直指生成式 AI 的“原罪”:未经授权使用近 10 万篇高质量百科文章训练模型,究竟是技术创新的“合理使用”,还是对人类知识遗产的“系统性侵权”?

输入端之争:是“转换性使用”还是“搭便车”?

在诉状中,大英百科全书 痛斥 ChatGPT 是在“搭便车”。他们认为,百科条目是经过严格编撰的原创版权产品,具有极高的商业价值。而 OpenAI 辩称其训练基于公开数据,符合“合理使用”原则,属于推动创新的转换性行为。

输出端实锤:AI 会“背诵”原文吗?

诉讼中最具杀伤力的证据在于“记忆化”复现。大英百科全书 提交的对比显示,在特定提示下,ChatGPT 产生的内容与原作“逐字相同或高度近似”。这意味着 AI 不仅仅是在学习知识,更是在未付费的情况下直接向用户分发受版权保护的原文,甚至通过生成摘要“蚕食”了原平台的网络流量。

品牌危机:当 AI 的“幻觉”挂上权威的名号

除了版权,本次诉讼还罕见地涉及了商标与署名权。大英百科全书 指控 OpenAI 在 AI 产生的错误信息中不当引用其品牌。对于拥有 250 多年历史的权威机构而言,AI 的“一本正经胡说八道”如果冠以其名,损害的将是其赖以生存的知识公信力。

行业风向标:来源秩序的保卫战

目前,大英百科全书 已要求法院下令停止侵权并索赔。业内专家分析,本案可能与 纽约时报 诉 OpenAI 案合并审理。

随着 Perplexity AI 等初创公司也纷纷陷入类似纠纷,传统知识机构正在集体向 AI 时代的“伸手党”行为宣战。这场判决的结果,将决定未来 AI 发展的成本底线,以及在算力狂飙的时代,人类原创知识的高地是否还能获得应有的尊严。

via AI新闻资讯 (author: AI Base)
Claude Console login down

Mar 22, 18:43 UTC
Monitoring - A mitigation has been applied. Logins have returned to normal, the team is continuing to monitor the situation.

Mar 22, 18:33 UTC
Update - We are investigating an issue with users authenticating to claude.ai and Claude Console (platform.claude.com)

Mar 22, 18:31 UTC
Investigating - We are investigating an issue preventing logins on Claude Console (platform.claude.com)

via Claude Status - Incident History
微软承诺减少 Copilot 集成,允许用户无限期推迟更新

2026-03-21 20:42 by 量子之夜

Windows 操作系统作为微软的核心产品其质量过去几年显著下降,每个月的例行安全更新在修复 bug 的同时还会带来额外问题,而微软还在不断给操作系统塞入用户并不需要的 AI 功能。微软今年早先时候承诺将致力于改进 Windows 的质量,现在官方博客公布了它准备采取哪些措施的细节:任务栏定制,任务栏不再固定在底部,可以移动到屏幕的任意一侧;减少记事本等应用中的 Copilot 集成;用户可以控制 Windows 更新时间,允许忽略更新或无限期推迟更新,重启或关机而不安装更新;等等。

https://blogs.windows.com/windows-insider/2026/03/20/our-commitment-to-windows-quality/

#Windows

via Solidot - Telegram Channel
Delayed response completion on Claude.ai

Mar 22, 11:14 UTC
Investigating - Since approximately 20:00 UTC / 13:00 PT on Friday, March 20, Claude.ai responses may appear to "hang" for around 5 seconds after the text has finished streaming before the message completes. The Anthropic API is not affected.

via Claude Status - Incident History
法国检方怀疑马斯克助长深伪争议 人为拉抬X估值

法国检方周六表示,怀疑马斯克涉嫌在社交平台 X 助长色情深伪内容的争议,借此 “人为” 增加公司价值;他们已就此事联系美国当局。这个社交媒体平台的Grok人工智能聊天机器人,年初曾因生成未经同意的裸女与女孩照片而引发公愤。巴黎检察官办公室证实了《世界报》昨天的报道表示:“由Grok生成的色情深伪照片所引发的争议,可能是故意制造的,目的是为了人为提升X和xAI两家公司的价值。”声明补充道,此举可能是为了SpaceX与xAI合并后成立的新实体,预计2026年6月进行的上市计划而准备。

—— 法新社

via 风向旗参考快讯 - Telegram Channel
年轻人兴起“社交外包”:利用 AI 处理分手、拒绝等棘手社交场合

越来越多的年轻人正将 AI 聊天机器人作为“社交拐杖”,用于处理拒绝表白或分手等棘手的人际沟通。这种现象被研究人员称为“社交外包”(Social Offloading),即通过外部代理来减轻自身的社交认知负担。近期有案例显示,一名耶鲁大学学生因缺乏处理敏感对话的经验,使用 ChatGPT 撰写了长达六段的拒绝信,虽然因措辞过于客套被对方识破,但他表示此举是为了避免表达时的犹豫不决。

专家指出,这种趋势意味着沟通行为本身正在被“外包”。非营利组织 Common Sense Media 的研究负责人 Michael Robb 认为,过度依赖 AI 介入复杂对话,可能会让年轻人产生“自己的直觉和语言永远不够好”的错觉,长期以往将削弱其独立应对社交挑战的能力,对人类的心理发育和社交技能产生负面影响。

Futurism

🌸 在花频道茶馆讨论投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
NVIDIA发明新技术KVTC 内存使用量缩减20倍

NVIDIA研究人员推出一项全新技术KVTC(KV快取转换编码),能把大型语言模型(LLM)追踪对话历史的内存用量,最高缩减20倍,而且不用修改模型本身。这一突破有望解决大型语言模型长对话推理时的内存不够用问题,大大降低企业使用AI的硬件成本,同时还能把模型首次生成回应的时间,最高提速8倍。

简单来说,KVTC技术的核心就是压缩大型语言模型背后的KV缓存——它相当于AI模型的“短期记忆”。我们可以把KV缓存理解成学生记笔记:模型处理对话时,会把关键信息(也就是Key和Value)记下来,下次生成回应时,不用从头重新计算整段对话,响应速度就能大幅提升。

但问题是,对话越长,这份“笔记”就越大,甚至会膨胀到几个GB,占用大量GPU内存,反而拖慢模型运行、限制其处理能力。

NVIDIA资深深度学习工程师Adrian Lancucki表示:“大型语言模型进行推论时,性能瓶颈往往不在运算能力,而在GPU内存。”那些暂时不用的KV缓存,会一直占用宝贵的GPU资源,逼得系统只能把它们转移到CPU内存或硬盘里,这样不仅会增加数据传输的负担,还可能出现新的卡顿问题,这些额外成本最终也会体现在企业的使用费用中。

和现有压缩技术相比,KVTC没有那些明显的局限,它借鉴了我们熟悉的JPEG图片压缩思路,通过“主成分分析、自适应量化、熵编码”三个简单步骤,就能实现高效压缩。

更方便的是,这项技术不用改动模型的核心设置和代码,属于“非侵入式”设计,企业拿来就能快速部署。它的核心优势是,能抓住KV缓存“数据高度相关”的特点,在保留关键信息的同时,去掉冗余数据,而且解压时可以分块、逐层进行,不会影响模型实时回应。

多轮测试显示,KVTC的表现远超现有主流方法。在参数量从15亿到700亿的多种模型(包括Llama 3系列、R1-Qwen 2.5等)上,即便将内存压缩20倍,模型准确率也几乎不受影响,损失不到1%,与未压缩时相差无几;而传统压缩方法仅压缩5倍,就会出现明显的准确率下降。

另外,在H100 GPU上处理8000个Token的提示时,不使用KVTC需要3秒才能生成第一个回应,使用后仅需380毫秒,提速整整8倍。

需要注意的是,KVTC更适合长对话、多轮互动场景,比如编程助手、迭代式代理推理等,若对话较短,很难发挥其压缩价值。

目前,NVIDIA正计划将这项技术整合进Dynamo框架的KV块管理器,使其能与vLLM等主流开源推论引擎兼容。

业内人士认为,随着大型语言模型可处理的对话长度不断增加,KVTC这类标准化压缩技术,未来可能会像视频压缩一样普及,助力AI更广泛地落地应用。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:快科技)

Invalid media: image
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]