https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
智能体(Agent)的竞争已经从“比参数”进化到了“比入口”。3月18日,腾讯云宣布其 AI 智能体产品 QClaw(腾讯龙虾) 迎来重磅更新。此次升级最大的亮点在于,QClaw正式打通微信生态,入口从原有的微信客服号全面升级为 微信小程序。
这一改变意味着用户与 AI 智能体的交互变得更加“丝滑”:
文件互传: 用户现在可以直接在小程序内接收QClaw从电脑端发送的文件。
多模态潜力: 未来还将支持语音、图片等微信原生交互,让 AI 真正像一个微信好友一样帮你干活。
为了让新手也能快速上手,QClaw v0.1.9同步上线了 “灵感广场”。这里预置了大量针对办公提效、深度研究、娱乐游戏等场景的常用任务。用户不再需要绞尽脑汁编写提示词,点击对应技能(Skills)即可运行。
自2026年初 OpenClaw 掀起全球“养龙虾”热潮以来,国内巨头纷纷入局。腾讯凭借微信与QQ的生态护城河,在智能体落地上占据了独特优势。与此同时,百度、阿里巴巴、字节跳动等大厂也在各自的生态位上密集排兵布阵,国内“龙虾”产品已超过13款。
但在热潮之下,安全风险同样不容忽视。国家互联网应急中心 近期发布风险提示,指出由于智能体需要较高的系统权限,若安全配置脆弱,极易导致隐私泄露或系统被控。专家建议,用户在部署此类应用时应进行严格的环境隔离,并确保插件来源可靠。
随着内测范围的扩大,QClaw还将陆续支持定时任务、远程切换模型等进阶功能。当 AI 智能体真正住进微信,那个“全能数字助理”的时代或许已经近在咫尺。
via AI新闻资讯 (author: AI Base)
大模型 Scaling 怎么玩?杨植麟 GTC 首秀:押注 Token 效率与 Agent 集群
大模型下半场的入场券,不再仅仅是算力的堆砌,而是对底层逻辑的重构。
在3月18日举办的英伟达 GTC2026大会上,月之暗面 (Moonshot AI) 创始人 杨植麟 发表了备受瞩目的公开演讲。这是他首次系统性地披露Kimi K2.5模型背后的核心技术路线图,为“后 Scaling 时代”的大模型进化提供了新思路。
杨植麟 在演讲中指出,要突破智能上限,必须对优化器、注意力机制及残差连接等核心技术进行“推倒重来”式的重构。他将 Kimi 的进化路径归纳为三个关键维度的协同:
Token 效率: 拒绝资源空转,追求更极致的计算能效比。
长上下文: 持续深化 Kimi 的长程记忆优势,处理超大规模信息。
智能体(Agent)集群: 智能形态正从单兵作战向动态生成的“数字集群”进化。
在 杨植麟 看来,当前的 Scaling 已经演变为在效率、记忆和自动化协作上寻找规模效应。如果能将这三个维度的技术增益相乘,模型将迸发出远超现状的智能水平。
参考此前的发布信息,今年1月底推出的 Kimi K2.5 已经展现了这种“全能”特质。作为月之暗面迄今最强大的开源模型,它采用了原生的多模态架构,不仅在代码、视觉理解上取得了 state-of-the-art(SOTA)的表现,还支持在“思考”与“非思考”模式间灵活切换,精准适配 Agent 任务场景。
随着 月之暗面 技术底牌的亮出,大模型赛道的竞争焦点正从“参数量”转向“智能密度”。当 Agent 集群成为未来智能的终极形态,Kimi能否在杨植麟构想的“三维相乘”逻辑下实现跨越式进化,正成为行业关注的焦点。
via AI新闻资讯 (author: AI Base)
大模型下半场的入场券,不再仅仅是算力的堆砌,而是对底层逻辑的重构。
在3月18日举办的英伟达 GTC2026大会上,月之暗面 (Moonshot AI) 创始人 杨植麟 发表了备受瞩目的公开演讲。这是他首次系统性地披露Kimi K2.5模型背后的核心技术路线图,为“后 Scaling 时代”的大模型进化提供了新思路。
杨植麟 在演讲中指出,要突破智能上限,必须对优化器、注意力机制及残差连接等核心技术进行“推倒重来”式的重构。他将 Kimi 的进化路径归纳为三个关键维度的协同:
Token 效率: 拒绝资源空转,追求更极致的计算能效比。
长上下文: 持续深化 Kimi 的长程记忆优势,处理超大规模信息。
智能体(Agent)集群: 智能形态正从单兵作战向动态生成的“数字集群”进化。
在 杨植麟 看来,当前的 Scaling 已经演变为在效率、记忆和自动化协作上寻找规模效应。如果能将这三个维度的技术增益相乘,模型将迸发出远超现状的智能水平。
参考此前的发布信息,今年1月底推出的 Kimi K2.5 已经展现了这种“全能”特质。作为月之暗面迄今最强大的开源模型,它采用了原生的多模态架构,不仅在代码、视觉理解上取得了 state-of-the-art(SOTA)的表现,还支持在“思考”与“非思考”模式间灵活切换,精准适配 Agent 任务场景。
随着 月之暗面 技术底牌的亮出,大模型赛道的竞争焦点正从“参数量”转向“智能密度”。当 Agent 集群成为未来智能的终极形态,Kimi能否在杨植麟构想的“三维相乘”逻辑下实现跨越式进化,正成为行业关注的焦点。
via AI新闻资讯 (author: AI Base)
美国拟在政府机构彻底封杀Anthropic工具
美国政府誓言要通过法律手段,将Anthropic的AI技术从所有政府机构中清除出去。此前双方因 Anthropic AI 技术的使用限制产生纠纷。美国司法部周二在法庭文件中说:“出于国家安全原因,原告Anthropic的AI技术服务条款已被行政部门视为不可接受。”司法部律师在提交的法庭文件中称,2026年初,国防部与Anthropic就双方合同进行谈判,希望增加一项允许五角大楼为任何合法目的使用其技术的条款,但该公司因其Claude的使用政策而拒绝接受该条款。司法部还担心,允许Anthropic继续接触其技术和作战系统会给国防部供应链带来不可接受的风险。
—— 凤凰网科技、彭博社
via 风向旗参考快讯 - Telegram Channel
美国政府誓言要通过法律手段,将Anthropic的AI技术从所有政府机构中清除出去。此前双方因 Anthropic AI 技术的使用限制产生纠纷。美国司法部周二在法庭文件中说:“出于国家安全原因,原告Anthropic的AI技术服务条款已被行政部门视为不可接受。”司法部律师在提交的法庭文件中称,2026年初,国防部与Anthropic就双方合同进行谈判,希望增加一项允许五角大楼为任何合法目的使用其技术的条款,但该公司因其Claude的使用政策而拒绝接受该条款。司法部还担心,允许Anthropic继续接触其技术和作战系统会给国防部供应链带来不可接受的风险。
—— 凤凰网科技、彭博社
via 风向旗参考快讯 - Telegram Channel
科技圈🎗在花频道📮:
MiniMax-M2.5 在官网上线 MiniMax 🍀在花频道 🍵茶馆聊天 📮投稿
MiniMax 发布新一代 Agent 大模型 M2.7,首次展示模型自我进化路径
3 月 18 日,MiniMax 稀宇科技发布新一代 Agent 旗舰大模型 M2.7,首次展示“模型自我进化”路径。该模型通过构建 Agent Harness 体系,据称能让模型深度参与自身训练与优化流程。公司称,在部分研发场景中,M2.7 可承担约 30%—50% 的工作量,并在内部评测集上实现约 30% 的效果提升。
在涵盖多种编程语言的 SWE-Pro 中,M2.7 以 56.22% 的正确率追平 GPT-5.3-Codex;在 Repo 级代码生成基准 VIBE-Pro 上,M2.7 得分 55.6%,几乎与 Opus 4.6 持平。
同花顺财经 | MiniMax 稀宇科技
🍀在花频道 🍵茶馆聊天 📮投稿
via 科技圈🎗在花频道📮 - Telegram Channel
模型也会“套娃”?MiniMax 发布 M2.7:首个深度参与自我迭代的国产大模型
人工智能的进化速度,正在从“月更”向“自进化”跨越。3 月 18 日,MiniMax正式发布了其首个深度参与迭代自身的新版本模型——MiniMax M2.7。这标志着模型开发进入了一个新阶段:大模型不再仅仅由人类程序员喂养,而是开始学会“自己带自己”。
据介绍,MiniMax M2.7的核心突破在于其极强的自主构建能力。它能够自行构建复杂的 Agent Harness(智能体测试框架),并依托 Agent Teams(智能体协作)、复杂 Skills 以及 Tool Search tool 等底层能力,独立完成高度复杂的生产力任务。
简单来说,M2.7 不仅是一个更聪明的对话者,更是一个能够自我诊断、自我优化的“数字工程师”。这种“自我参与迭代”的模式,将极大提升模型在面对未知复杂任务时的逻辑推理上限和工具调用精度。
目前,这一具备自进化基因的MiniMax M2.7模型已在MiniMax Agent平台及开放平台上全量上线。当大模型开始深度参与自己的“生长”过程,AI 的天花板或许将被再次推高。
与此同时,AI 算力与应用市场也动态频频。潞晨科技宣布完成数亿元 B 轮融资,其海外收入占比已飙升至 79%;而受调用量暴涨影响,阿里云部分 AI 算力产品也传出了涨价的消息。在技术迭代与市场波动的交织下,2026 年的 AI 赛道正变得愈发紧迫且充满变数。
via AI新闻资讯 (author: AI Base)
人工智能的进化速度,正在从“月更”向“自进化”跨越。3 月 18 日,MiniMax正式发布了其首个深度参与迭代自身的新版本模型——MiniMax M2.7。这标志着模型开发进入了一个新阶段:大模型不再仅仅由人类程序员喂养,而是开始学会“自己带自己”。
据介绍,MiniMax M2.7的核心突破在于其极强的自主构建能力。它能够自行构建复杂的 Agent Harness(智能体测试框架),并依托 Agent Teams(智能体协作)、复杂 Skills 以及 Tool Search tool 等底层能力,独立完成高度复杂的生产力任务。
简单来说,M2.7 不仅是一个更聪明的对话者,更是一个能够自我诊断、自我优化的“数字工程师”。这种“自我参与迭代”的模式,将极大提升模型在面对未知复杂任务时的逻辑推理上限和工具调用精度。
目前,这一具备自进化基因的MiniMax M2.7模型已在MiniMax Agent平台及开放平台上全量上线。当大模型开始深度参与自己的“生长”过程,AI 的天花板或许将被再次推高。
与此同时,AI 算力与应用市场也动态频频。潞晨科技宣布完成数亿元 B 轮融资,其海外收入占比已飙升至 79%;而受调用量暴涨影响,阿里云部分 AI 算力产品也传出了涨价的消息。在技术迭代与市场波动的交织下,2026 年的 AI 赛道正变得愈发紧迫且充满变数。
via AI新闻资讯 (author: AI Base)
Elevated errors on Claude Opus 4.6
Mar 18, 06:41 UTC
Investigating - We are currently investigating this issue.
via Claude Status - Incident History
Mar 18, 06:41 UTC
Investigating - We are currently investigating this issue.
via Claude Status - Incident History
据新浪科技消息,字节跳动安全团队正式在内部发布《OpenClaw安全规范和使用指引》,并同步推出面向员工的合规工具ByteClaw,旨在通过标准化手段解决大模型工具在企业内网环境下的安全治理难题。ByteClaw基于火山引擎ArkClaw企业版构建,实现了公司账号体系下的统一身份认证、访问控制与权限管理,为员工安全调用内部资源提供了底层支撑。
针对大模型应用中普遍存在的访问控制失效、提示词注入、敏感信息泄露、供应链漏洞及恶意插件投毒等五类典型安全风险,《规范》提出了明确的技术防范要求。字节安全团队强调,ByteClaw等云端托管平台已完成安全基线配置,能够有效收敛攻击面并实现持续运维监控。在部署层面,字节跳动严禁在业务服务器等核心生产环境安装此类工具,且不建议在办公电脑本地部署。若因业务需求确需本地使用,则必须严格遵循合规指引完成安全配置。
此举反映出头部大厂在推动AI提效的同时,正加速完善大模型应用的安全合规基座。随着OpenClaw等开源框架的普及,企业级安全合规将成为大模型从技术实验走向业务落地的核心变量,字节跳动的这一规范化动作,也为行业提供了AI应用内控与治理的参考范式。
via AI新闻资讯 (author: AI Base)
3月18日,阿里云官方宣布上调旗下AI算力及存储产品价格,最高涨幅达34%,此举标志着大模型应用爆发期云基础设施成本进入动态调整阶段。
本次调价涵盖了底层算力卡与高性能存储等核心产品线。其中,平头哥真武810E等算力卡产品价格上涨5%至34%,专为智算场景设计的底层文件存储产品CPFS(智算版)涨幅亦达到30%。阿里云方面表示,全球AI需求持续激增导致供应链成本上升,是此次价格波动的直接诱因。
值得注意的是,Token调用量的指数级增长成为本轮调价背后的关键变量。数据显示,阿里云旗下MaaS(模型即服务)平台“百炼”在今年一季度创下历史最高增速。受此影响,阿里云正战略性地将紧缺的AI算力资源向Token业务倾斜,以优先保障大模型推理与应用层的需求。
从行业视角看,随着生成式AI从技术研发转向规模化落地,算力资源的稀缺性正由上游芯片端传导至下游云服务商。阿里云的定价调整不仅反映了算力供需关系的紧平衡状态,也预示着云厂商正试图通过价格杠杆优化资源配置,以应对高并发、高增长的模型调用挑战。
via AI新闻资讯 (author: AI Base)
BuzzFeed 新 AI 应用 SXSW 遇冷:现场尴尬静默,转型之路再陷阴机
在近日举行的 SXSW 大会上,曾经的数字媒体巨头 BuzzFeed 展示了两款由其新子公司 Branch Office 开发的 AI 原生应用,然而演示现场的反响却极为惨淡。这不仅让观众感到困惑,也为其激进的“AI 优先”战略打上了沉重的问号。
据现场报道,BuzzFeed 展示的两款产品均未能击中用户痛点:
Conjure:一款被指为“BeReal 仿品”的应用。它每天向用户发出“祭品召唤”,要求拍摄特定的日常物品(如天空),且系统接受照片后不提供任何解释。演示结束后,现场陷入了长久的静默,随后爆发出一阵尴尬的笑声。
BF Island:一个基于 AI 图像编辑器的群聊应用。其核心卖点是利用 AI 实时生成梗图和碎片化内容,试图通过“赛博垃圾生成器”属性吸引年轻人,但其产品逻辑被指缺乏新意。
此次发布背景异常严峻。就在上周的财报中,BuzzFeed 承认公司持续经营能力存在重大疑问。尽管其 CEO Jonah Peretti 早在三年前就宣布加倍下注 AI,但现实数据却十分残酷:
公司仍身陷债务泥潭,预计 2025 年净亏损将达 5730 万美元。为了全面转向 AI,公司此前削减了曾获得普利策奖的新闻部门,转而生产大量被读者诟病为“低质垃圾”的 AI 生成内容。
面对质疑,Peretti 给出了一番晦涩的辩解。他认为在 AI 扰乱生产的背景下,内容本身已不再是核心,价值已转移到社群、文化和品味上。然而,观众对这两款应用的冷淡反应似乎证明,缺乏核心愿景的 AI 堆砌并不能换来用户的忠诚。
via AI新闻资讯 (author: AI Base)
在近日举行的 SXSW 大会上,曾经的数字媒体巨头 BuzzFeed 展示了两款由其新子公司 Branch Office 开发的 AI 原生应用,然而演示现场的反响却极为惨淡。这不仅让观众感到困惑,也为其激进的“AI 优先”战略打上了沉重的问号。
据现场报道,BuzzFeed 展示的两款产品均未能击中用户痛点:
Conjure:一款被指为“BeReal 仿品”的应用。它每天向用户发出“祭品召唤”,要求拍摄特定的日常物品(如天空),且系统接受照片后不提供任何解释。演示结束后,现场陷入了长久的静默,随后爆发出一阵尴尬的笑声。
BF Island:一个基于 AI 图像编辑器的群聊应用。其核心卖点是利用 AI 实时生成梗图和碎片化内容,试图通过“赛博垃圾生成器”属性吸引年轻人,但其产品逻辑被指缺乏新意。
此次发布背景异常严峻。就在上周的财报中,BuzzFeed 承认公司持续经营能力存在重大疑问。尽管其 CEO Jonah Peretti 早在三年前就宣布加倍下注 AI,但现实数据却十分残酷:
公司仍身陷债务泥潭,预计 2025 年净亏损将达 5730 万美元。为了全面转向 AI,公司此前削减了曾获得普利策奖的新闻部门,转而生产大量被读者诟病为“低质垃圾”的 AI 生成内容。
面对质疑,Peretti 给出了一番晦涩的辩解。他认为在 AI 扰乱生产的背景下,内容本身已不再是核心,价值已转移到社群、文化和品味上。然而,观众对这两款应用的冷淡反应似乎证明,缺乏核心愿景的 AI 堆砌并不能换来用户的忠诚。
via AI新闻资讯 (author: AI Base)
包括Anthropic、AWS、GitHub、Google、微软和OpenAI在内的六家大型科技公司近日共同向Linux基金会相关项目提供总计1250万美元的资助,旨在帮助自由及开源软件(FOSS)项目维护者应对由人工智能工具大量生成的“灌水式”安全漏洞报告压力。
Linux基金会在公告中指出,随着安全形势日益复杂,AI技术正显著提升开源软件漏洞发现的速度与规模,维护者面临前所未有的大量安全问题反馈,其中相当一部分由自动化系统生成,却缺乏相应资源和工具来进行有效分类、筛查和修复。
此次资金将用于支持Linux基金会旗下专注开源供应链安全的Alpha-Omega项目,与开源安全基金会(OpenSSF)共同推进一项新计划。 据介绍,这两个组织将直接与各项目维护者及其社区合作,使新兴安全能力更易获取、更具可操作性,并能融入现有项目工作流程,同时探索可持续策略,既缓解维护者不断增长的安全压力,也增强整个开源生态的韧性。
Linux内核项目核心维护者Greg Kroah-Hartman在基金会公布的评论中坦言,仅靠资助本身并不能解决AI工具给开源安全团队带来的所有问题,但他也强调,OpenSSF已经具备相应的资源,可以通过多个项目支持那些被AI生成安全报告压得不堪重负的维护者,对这类报告进行更高效的分类和处理。
不过,目前有关这项新计划的具体技术路径、实施方式以及时间表,Linux基金会尚未给出进一步细节。
AI生成漏洞报告挤占维护者精力并非新问题。早在2024年底,Python软件基金会就曾公开抱怨类似情况。 此后,广受使用的开源数据传输工具cURL的维护者也因为难以应对大量AI生成的提交与反馈,宣布终止该项目的漏洞奖励计划。
连隶属于微软的GitHub也开始认真考虑如何应对蜂拥而至、质量堪忧的AI生成贡献和拉取请求,并探讨设置某种“紧急刹车”机制,以防此类噪音淹没正常的开源协作流程。
via cnBeta.COM - 中文业界资讯站 (author: 稿源:cnBeta.COM)