https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🔙备用群 https://t.me/gpt345
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
加速数据从原材料向实际应用转变 蚂蚁数科发布DataX智能体数据生态平台

随着人工智能技术进入大规模应用期,如何提升数据要素的配置效率成为行业关注命题。4月28日,蚂蚁数科在第九届数字中国建设峰会上正式发布DataX智能体数据生态平台,通过接入模型上下文协议(MCP)和专业智能体 DTClaw ,降低数据接入门槛,缩短数据价值转化周期。

传统模式下,数据从“原材料”到业务应用普遍存在集成周期长、理解难度大、跨平台应用适配难等痛点。DataX 技术底层将传统数据服务转变为提供标准的MCP协议,大幅提升AI 接入效率;同时,DataX深度整合了蚂蚁数科成熟的DTClaw智能体能力,可以将复杂的数据处理逻辑与行业实践封装为可直接调用的Skill和Agent,让数据“开箱即用”。此外,DataX还构建了基于数据的图谱知识库,通过自然语言就可以实现数据应用的智能编排和数据知识的高效检索。

据了解,DataX 平台汇聚了隐私计算、数据加工、数据运营、数据应用等丰富的 Skills 库,通过沉淀行业经验并降低技术开发门槛,助力企业在数据业务场景中快速构建专业智能体。在数据的实际流通链路中,专业Skills被深度集成在了供给、流通与需求三大环节。在供给侧,通过数据加工与价值评估Skills提升数据产品封装效率;在流通侧,通过隐私计算Skills保障数据安全,通过数据运营Skills提升撮合效率;在需求侧,开放行业 ISV 合作,通过打造行业专属Skills,服务真实业务场景。

蚂蚁数科围绕数据要素场景历经多年的业务实践,其 FAIR可信数据空间平台100%通过了全国数标委可信数据空间功能测试,是国内首批通过该测试的平台之一,且已经在西安、吉林等重点省市落地,成为地方数据枢纽的核心支撑。此次DataX的发布,标志着蚂蚁数科的FAIR平台实现了从“底层可信技术产品”向“数据智能价值平台”的跨越,有望加速数据要素向现实生产力的规模化转化。

via AI新闻资讯 (author: AI Base)
英伟达推出新一代多模态模型,智能体效率提升九倍

英伟达发布了其开放式多模态模型 “Nemotron 3 Nano Omni”,这款新模型将视频、音频、图像和文本的推理能力整合到一个系统中,旨在为用户提供更快速和智能的响应。根据英伟达的介绍,这款模型采用了先进的 30B-A3B 混合专家架构,集成了视觉与音频编码器,无需依赖额外的感知模型,因此在大规模推理效率上显著提升。

在多个领域,Nemotron 3 Nano Omni 表现出色,特别是在复杂文档解析、视频及音频理解等方面,已在六大权威排行榜上名列前茅。其独特的设计使得该模型能够快速解读全高清屏幕录像,极大地改善了智能体与数字环境的交互方式。H Company 的首席执行官 Gautier Cloix 表示,基于该模型,公司能够实现以前无法达成的快速解读能力,这标志着智能体技术的重大进步。

此外,Nemotron 3 Nano Omni 不仅具备卓越的效率,且具备强大的多模态感知精度,其 AI 系统的吞吐量比同类模型高出 9 倍。这使得它在同类产品中独树一帜,为开放式多模态模型树立了新的效率标杆。英伟达透露,目前该模型已与多家公司的系统进行协作,显示出强大的应用潜力。

在过去的一年中,Nemotron 3 系列模型,包括 Nano、Super 和 Ultra 型号,累计下载量已突破 5000 万次,这表明了市场对该模型的高度认可和需求。英伟达的这一新发布无疑将推动多模态技术的发展,为各行各业带来更多的智能解决方案。

划重点:

📈 Nemotron 3 Nano Omni 模型集成视频、音频、图像和文本推理能力,提升智能体响应速度。

🚀 该模型在六大权威排行榜上表现优异,具备卓越的文档解析和多模态理解能力。

🌍 一年内累计下载量超 5000 万次,显示出市场对英伟达多模态技术的强烈需求。


via AI新闻资讯 (author: AI Base)
智效比提升十倍:蚂蚁集团百灵大模型Ling-2.6-flash正式开源

蚂蚁集团旗下的百灵大模型今日宣布,正式开源其最新成员Ling-2.6-flash。该模型同步推出了BF16、FP8、INT4 等多个量化版本,旨在为全球开发者提供更灵活的硬件适配选择,进一步降低AI部署的门槛。

作为一款高性能模型,Ling-2.6-flash的总参数量达104B,其中激活参数为7.4B。此前,该模型曾以匿名身份在国际主流评测平台崭露头角,并根据开发者反馈完成了多轮针对中英文切换与代码适配的深度优化。

推理效率实现质变

在技术架构层面,Ling-2.6-flash引入了先进的混合线性架构,极大地释放了计算潜能。在主流的H20 显卡环境下,其推理速度最快可达每秒 340 个Token,吞吐能力远超行业同类竞品。

除了速度优势,该模型在智效比上表现惊人。评测数据显示,在完成同等复杂程度的任务时,Ling-2.6-flash消耗的Token数量仅为同级别模型的十分之一,有效降低了企业的长期运营成本。

定向增强智能体场景

针对当前火热的Agent应用,蚂蚁集团对模型进行了定向能力增强。无论是在复杂的工具调用,还是在长路径的任务规划中,Ling-2.6-flash都展现出了极强的逻辑执行力与任务成功率。

目前,该模型已在Hugging Face和ModelScope等主流开源社区同步上线。通过此次深度开源,蚂蚁集团希望能够赋能更多垂直领域的开发者,在保障数据隐私的同时,共同探索大模型应用的新边界。

via AI新闻资讯 (author: AI Base)
马斯克:OpenAI本应是慈善机构 却被高管变成逐利机器

全球首富马斯克周二在一场关乎OpenAI未来的重要庭审中出庭作证,将他对这家ChatGPT制造方提起的诉讼描述为一场捍卫慈善事业的行动。马斯克正在起诉OpenAI、其联合创始人兼首席执行官萨姆·奥特曼(Sam Altman)以及总裁格雷格·布罗克曼(Greg Brockman),称他们背叛了他和公众,背离了OpenAI为人类善意管理人工智能(AI)的使命,将这家非营利组织转变为逐利巨头。

马斯克和奥特曼于2015年共同创立OpenAI,目标是研发AI以造福人类,并抗衡谷歌等竞争对手。在马斯克离开OpenAI董事会13个月后,该公司设立了营利实体。

“如果我们允许掠夺一家慈善机构,美国慈善捐赠的整个根基都将被摧毁,”马斯克在庭审首日作证时表示,“这就是我的担忧。”这位特斯拉TSLA.O和SpaceX的创始人还称,OpenAI同样是他的“心血结晶”。

“构思、命名、招募核心成员、传授我所知的一切、提供全部初始资金,这些都是我做的,”马斯克表示,“它本来就是被明确设计成一家不让任何个人受益的慈善机构。我完全可以把它办成营利公司,但我刻意选择了不这么做。”

在马斯克开始作证之前,OpenAI和奥特曼的律师萨维特 (William Savitt) 告诉陪审团,正是马斯克在资助OpenAI早期发展时看到了赚钱的机会,并推动其转型为营利性企业,甚至可能由他本人最终出任CEO。他说马斯克想要“独揽大权”,并在未能如愿后才提起诉讼。

马斯克的律师莫洛 (Steven Molo) 在开庭陈述中告诉陪审团,贪婪的是OpenAI一方,因为该公司引入包括微软MSFT.O在内的投资者,微软于2023年1月向OpenAI投资了100亿美元。“这不是一个让人致富的工具,”莫洛表示。

马斯克预计将于周三继续作证。他向OpenAI及其最大投资方之一微软索赔1,500亿美元,款项将用于OpenAI的慈善部门。他还要求OpenAI恢复非营利组织身份,撤换奥特曼和布罗克曼,并让奥尔特曼退出董事会。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:环球市场播报)
亚马逊已在 AWS 上架多款全新 OpenAI 产品

就在 OpenAI 宣布,其主要投资方兼云端合作方微软不再享有旗下任何产品的独家使用权后不久,亚马逊便立刻表现出强势姿态。周一,OpenAI 与微软公布修订版合作协议。随后,亚马逊首席执行官安迪・贾西在推文里称,这是一则 “耐人寻味的公告”。

这份新协议扫清了合作障碍,允许亚马逊云科技(AWS)上架 OpenAI 全系产品。此前,OpenAI 与亚马逊达成最高500 亿美元合作协议后,双方产品合作的权限问题便愈发凸显。

亚马逊于周二正式宣布,旗下 AI 平台Bedrock现已接入 OpenAI 最新大模型、代码生成工具 Codex,以及一款基于 OpenAI 技术打造、用于智能 AI 代理开发的全新产品。Bedrock 是亚马逊推出的 AI 应用开发与大模型选型服务平台。

亚马逊将这款全新智能代理服务命名为Bedrock Managed Agents。该服务专为适配 OpenAI 推理模型打造,配备智能调度、安全防护等专属功能。

亚马逊在官方博客中表态:“这只是 AWS 与 OpenAI 深化合作的开端。” 这场跨界联手,后续发展值得持续关注。

据悉,微软与 OpenAI 的合作关系早已持续恶化,双方纷纷转向彼此的头号竞争对手寻求合作:OpenAI 牵手亚马逊云科技与甲骨文;微软则押注 AI 竞品 Anthropic,这家总部位于雷德蒙德的科技巨头,也正在研发依托 Claude 模型的全新智能代理产品。

via cnBeta.COM - 中文业界资讯站 (author: 稿源:环球市场播报)
ima上线知识 Agentcopilot:内置记忆系统并支持多端联动

4月29日,腾讯旗下的智能工作台ima宣布正式推出个人知识 Agent——copilot。该产品旨在通过深度个性化记忆与全场景感知能力,将原有的 AI 搜索工具升级为具备持续进化能力的个人知识伙伴,标志着 AI 应用从单次对话工具向长效智能体的关键转型。

技术层面,copilot核心集成了由“Soul(人设)、User(用户档案)、Memory(长期记忆)、Agent(经验技巧)”四大模块组成的自主进化记忆系统,能够跨场景结构化存储用户背景与偏好,消除重复输入的交互冗余。

在应用层面,copilot实现了全场景感知,可作为浮窗悬停于应用内,直接基于当前浏览的网页、文件或笔记进行实时理解与处理。此外,同步上线的 Skills 生态不仅内置了跨文件汇总、知识库自动化整理等官方技能,还支持用户通过 Skillhub 或 API 自行接入主流大模型,构建定制化技能链路。

目前,copilot已全面覆盖 Mac、Windows、iOS、安卓及鸿蒙平台,并采取申请制分批开放。在 AI 助手赛道竞争加剧的背景下,ima通过强化底层记忆资产与技能扩展性,正试图定义“下一代知识管理”的形态。这种从单纯的信息索引向深度上下文感知的迭代,将显著提升知识工作者在复杂任务中的交付效率与数字资产沉淀能力。

via AI新闻资讯 (author: AI Base)
千万美金种子轮落地,记忆大模型MemoraX AI能终结AI“失忆症”吗?

大模型是否注定只能是高效的“搜索引擎”?在深圳忆纪元科技有限公司(MemoraX AI)创始人郝建邺看来,如果无法跨越从“存储”到“记忆”的鸿沟,AI将永远无法成为真正的智能伙伴。

近日,这家成立仅一个月的初创公司宣布完成千万美元种子轮融资。本轮融资由L2F光源创业者基金、钟鼎资本联合领投,知名投资人及产业方共同参与。据悉,这笔资金将核心用于Agentic RL(智能体强化学习)算法的迭代、工程化落地,以及内生记忆模块的产品化开发。

MemoraX AI成立于2026年3月,其领军人物郝建邺为天津大学菁英教授,曾先后担任华为决策推理实验室主任及大模型算法实验室主任,在强化学习领域拥有极高的学术声望与实战经验。团队成员则集结了来自华为、阿里、腾讯等大厂的技术骨干,构成了学术与产业双栖的强力配置。

技术层面,MemoraX AI试图通过自主研发的Agentic RL技术,将记忆能力内生化。这一方案主要解决当前大模型普遍存在的“碎片化记忆”与“检索不精”等痛点。其核心优势体现在三个维度:首先是动态进化,记忆能在交互中持续更新重组,而非死板的静态存储;其次是精准召回,在LoCoMo-Refined测试集中,其表现领先同行30%,训练效率提升达400倍;最后是泛化复用,能够灵活适配从智能终端到企业级知识管理的多元场景。

目前,这些前沿技术已在自动驾驶、芯片设计自动化及工业求解器等领域实现初步落地。

在商业路径上,MemoraX AI选择了B端与C端并行的策略。在B端,公司旨在为医疗、金融、法律等行业提供标准化的记忆模块,提升智能客服与知识管理的深度;在C端,则致力于打造更具个性的数字陪伴助手。根据规划,首批标准化记忆产品预计将在一年内正式面世。

投资方代表认为,记忆系统是智能体(Agent)最核心的基础设施,直接决定了AI交付能力的上限。在AI应用层亟待突破瓶颈的当下,MemoraX AI在动态交互中实现自我更新的技术路径,被视为打破行业天花板的关键尝试。

via AI新闻资讯 (author: AI Base)
擎天租获数亿元 Pre-A 轮融资,加速具身智能机器人履约网络建设

4月29日,机器人租赁与服务平台擎天租宣布完成数亿元 Pre-A 轮融资。本轮融资集结了正大机器人、长信股份等产业资本,以及美格智能、蓝思科技等多家上市公司,老股东明嘉资本、知行投资和睿资创投亦进行了超额认购。资金将重点投向全国履约服务网点建设、机器人资产调度系统升级及全球化服务网络拓展。

截至4月中旬,擎天租平台已接入并可调度的机器人规模突破4000台,服务网络覆盖全国百余座城市。随着具身智能技术进入商业化落地的深水区,该平台通过商学院合伙人培训强化了从设备操作到售后保险的标准化 SOP,并联合中国人保财险构建了机器人专属保险体系,目前累计投保超千台,并完成了首批具身智能机器人的保险理赔。这种“资产+服务+保险”的闭环模式,有效解决了具身智能设备在多场景并行交付中的效率与合规痛点。

行业分析指出,擎天租的融资成功折射出市场重心正从单一的模型研发向基础设施化运维转移。在具身智能机器人大规模铺开的前夜,完善的履约与保险体系不仅是降低企业使用门槛的工具,更是推动产业从实验室走向全场景应用的关键支撑。

via AI新闻资讯 (author: AI Base)
蚂蚁数科上线LingDT-2.6-flash 进一步为企业提供实用型AI工具

当前,大模型的竞争焦点已从单纯的模型性能比拼,转向如何以更低成本、更高效率,在企业真实场景中实现规模化应用。如何更懂企业,更适配企业的需求,成为行业关注重点。

4月29日,蚂蚁数科宣布推出Ling-2.6-flash商业版LingDT-2.6-flash。该模型主打“Token效率”,在同等测评任务下相比同参数级别模型可节省90%Token消耗,更快、更省、更适合企业真实场景大规模部署。

据悉,LingDT-2.6-flash全面继承Ling-2.6-flash的核心优势,从底层架构优化Token效率,破解产业落地难题。

该模型总参数量104B,激活参数7.4B,在保持高智能水平的前提下,实现推理效率与Token利用率大幅提升。同时,LingDT-2.6-flash搭载金融级安全防护体系,支持私有化部署、数据隔离、API权限管控,全面满足企业严苛的数据安全与合规要求,实现高效能与高安全双向兼顾。

目前,模型已在蚂蚁数科DT MaaS平台首发上架,限时8折优惠,每百万tokens输入仅0.48元、输出1.44元,大幅降低企业规模化AI应用的成本。

蚂蚁数科深耕产业场景,坚持 “高效能、低成本、强实用”的AI技术路线,构建了覆盖底层大模型、模型服务层、智能体平台到上层智能体应用的全栈AI产品矩阵,并依托成熟的工程化能力,让AI从技术演示走向业务一线,在金融、能源、交通等重点领域加速落地。

以金融领域为例,蚂蚁数科接连推出金融推理大模型Agentar-Fin-R1、轻量级MoE模型LingDT-Fin-Mini 2.5,通过“行业大脑”+“执行手脚”的协同模式,为金融业提供兼具专业度、性价比与快速响应能力的AI大模型方案。目前,蚂蚁数科在金融领域已推出超百个金融场景智能体应用,包括AI手机银行、保险理赔、安全封控、财富管理等核心应用场景。

via AI新闻资讯 (author: AI Base)
Anthropic 悄然上调 Claude Code 资费:开发者每日成本翻倍

AI 编程领域的成本压力正进一步显现。近日,知名人工智能公司 Anthropic 在未发布正式公告的情况下,对其 AI 编程工具 Claude Code 的计费标准进行了大幅调整。根据官网最新披露的数据,该工具的 Token 消耗成本已较此前预估水平直接翻倍。

在最新的企业部署说明中,Anthropic 指出,目前每位开发者在活跃日的平均使用成本约为13美元。而在此前(4月16日之前)的官方记录中,这一数字仅为6美元。这意味着,对于高频使用该工具的开发者而言,每日的支出成本已从约40元人民币攀升至90元人民币以上。

订阅制难以为继?官方称使用强度超预期

除了每日支出的波动,Anthropic 还给出了月度成本的最新参考范畴。目前,一名开发者每月的使用费用预计在150美元至250美元之间。统计显示,约90% 的用户每日支出能控制在30美元以内,但这仍远高于此前预估的12美元上限。

针对此次价格变动,Anthropic 增长负责人 Amol Avasare 坦言,公司现有的订阅计划已无法适应当前的用户参与度。他表示,每个订阅者的活跃程度在近期出现了大幅增长,导致原有的定价模型难以为继。为了应对这种超预期的使用强度,公司此前已尝试通过设置每周限额、在高峰时段实施更严格的限制等手段进行微调,但最终仍选择了直接调整计费成本。

行业竞争加剧,高阶编程模型或成“吞金兽”

事实上,Claude Code 的涨价并非孤例,它反映了当前 AI 行业普遍面临的成本挑战。随着模型能力向高阶编程领域渗透,庞大的上下文处理需求和高昂的算力成本正迫使厂商重新审视定价逻辑。

就在近期,OpenAI 也上线了针对开发者的每月100美元订阅方案,试图在这一高价值细分市场与 Anthropic 展开正面对决。分析人士认为,随着 Claude Opus4.7等高性能模型的迭代,AI 助手的“免费午餐”或低价时代正在远去,未来的竞争焦点将不仅在于模型的能力上限,更在于如何在性能与商业化成本之间达成平衡。

via AI新闻资讯 (author: AI Base)
GPT- 5 引发链式反应:OpenAI爬虫活动疯狂激增三倍

随着GPT- 5 正式步入应用阶段,OpenAI在全球互联网上的数据采集力度达到了前所未有的高度。最新行业监测数据显示,自 2025 年 8 月新一代模型发布以来,OpenAI旗下爬虫程序的活跃度激增了约300%,显示出其对实时信息与高质量训练数据的极度饥渴。

这一变化标志着AI竞争进入了“深挖数据”的新阶段。分析指出,OpenAI正通过高频次的网络扫描,确保其模型能够更精准地捕捉到全球动态,从而维持其在生成式人工智能领域的领先地位。

搜索爬虫占据主导地位

在各类采集工具中,专门用于实时检索内容的“OAI-SearchBot”表现最为抢眼。数据显示,该机器人的日志事件数量已正式超越了负责传统模型训练的“GPTBot”,这反映出ChatGPT正将重心转向提供更具时效性的搜索反馈。

这种策略的转变在医疗、媒体及出版行业表现得尤为明显,相关网站接收到的爬虫访问量增长了数倍。OpenAI似乎正在优化其处理逻辑,将新闻类查询引导至实时搜索,而将专业知识类需求交由预训练模型处理。

行业格局正在加速重塑

尽管OpenAI的采集规模大幅扩张,但与传统搜索巨头谷歌相比仍有差距。目前OpenAI的爬虫总量约为谷歌的4%,虽然绝对数值尚无法撼动后者的地位,但双方的差距正在以惊人的速度缩小。

对于网站运营者而言,这一趋势带来了新的抉择:屏蔽爬虫虽然能保护数据,但也意味着可能被排除在AI搜索的流量入口之外。在AI技术迭代日益加速的 2026 年,如何平衡数据版权与AI搜索可见性,已成为内容产业面临的共同挑战。

via AI新闻资讯 (author: AI Base)
蚂蚁集团百灵大模型开源新成员:Ling-2.6-flash 正式上线

蚂蚁集团旗下的百灵大模型系列于今日迎来重要更新,Ling-2.6-flash正式向全球开发者开放。为了适配差异化的硬件环境并降低部署门槛,该模型同步推出了 BF16、FP8以及 INT4等多个精度版本,旨在为开发者提供更具弹性的推理选择。

作为一款总参数量达到104B、激活参数量为7.4B 的 Instruct 模型,Ling-2.6-flash在正式官宣前,曾以“Elephant Alpha”的匿名身份在 OpenRouter 平台先行测试。在为期两周的试运行中,研发团队吸收了大量真实反馈,对模型进行了针对性优化,显著增强了中英文自然切换的流畅度,并使其在主流编程框架中的适配表现更加出色。

技术亮点:混合架构与极致效率

Ling-2.6-flash的核心竞争力集中体现在其独特的架构设计与极高的运行效率上:

● 混合线性架构: 通过底层的计算优化,模型展现了极佳的推理速度。在4卡 H20环境下,其推理速度最高可达340tokens/s。在 Prefill(预填充)吞吐指标上,更是达到了 Nemotron-3-Super 的2.2倍,大幅缩短了响应延迟。
● 出色的“智效比”: 研发团队在训练过程中对 Token 效率进行了深度校准。评测数据显示,完成同等质量的任务,Ling-2.6-flash仅需消耗约15M tokens,这一数值仅为同类竞品的十分之一,极大地降低了商用成本。

场景深耕:定向增强智能体能力

针对当前大模型应用最广泛的 Agent(智能体)场景,Ling-2.6-flash进行了专项强化。无论是在复杂的工具调用、逻辑多步规划,还是最终的任务执行力上,该模型都表现稳健。在 BFCL-V4、SWE-bench 等多项行业主流评测中,即便面对激活参数规模更大的模型,Ling-2.6-flash依然能够维持相近甚至达到行业顶尖(SOTA)的水平。

目前,开发者已可通过 Hugging Face 和 ModelScope(魔搭社区)获取该模型的开源资源,进一步探索其在各类行业应用中的潜力。

via AI新闻资讯 (author: AI Base)
月之暗面计划于第三季度推出 Kimi K3 大模型 2.5 万亿参数卷出新高度

国产大模型领域的“军备竞赛”再次升级。据最新消息,月之暗面旗下的下一代主力模型 Kimi K3 预计将在今年第三季度正式发布。作为备受瞩目的后起之秀,Kimi 系列的每一次迭代都牵动着行业神经,而 K3 的亮相无疑将进一步拉高国产大模型的竞争门槛。

2.5 万亿参数规模直指行业天花板

在核心技术指标上,Kimi K3 展现出了惊人的跨越式增长。其参数规模有望达到 2.5 万亿,这一数据在目前的国产模型阵营中堪称顶尖。横向对比来看,近期发布的 DeepSeek V4 Pro 版参数量约为 1.6 万亿,而百度旗下的文心 5.0 参数量约为 2.4 万亿。Kimi K3 凭借 2.5 万亿的量级,正试图在算力和模型容量上实现对同行的全面超越。

百万字上下文处理能力再进化

除了庞大的参数规模,Kimi K3 在其招牌的“长文本”优势上也进行了深度打磨。新模型的上下文长度标准将提升至约 100 万字,这意味着用户在处理超长文档、复杂代码库或大规模数据集时,将获得更具连贯性和深度理解力的交互体验。

稳扎稳打:月之暗面的商业与技术版图

回溯月之暗面的发展历程,其迭代节奏十分紧凑。从去年 9 月实现万亿参数模型的秒级热更新,到 11 月发布开源思考模型 Kimi K2 Thinking,再到今年年初 K2.5 模型在开源榜单登顶并实现 1 亿美元的年经常性收入(ARR),该团队展现出了极强的工程落地能力。

就在不久前的 4 月 21 日,Kimi 刚刚发布并开源了 K2.6 版本,重点提升了集群处理能力。而仅仅时隔一周,K3 的消息便接踵而至。月之暗面总裁张予彤曾表示,团队在资源利用率上极具效率。随着 K3 进入发布倒计时,这场万亿级算力的竞赛已然进入了白热化阶段。

via AI新闻资讯 (author: AI Base)
研究报告:2025年超三分之一新网站由 AI 生成,语义相似度提升33%

2026年4月28日,来自伦敦帝国理工学院、互联网档案馆及斯坦福大学的研究人员发布联合研究报告指出,AI 生成文本已深度渗透全球网络生态。数据显示,截至2025年中期,全球约35% 的新发布网站内容全部或部分由 AI 生成,而这一数字在2022年底 ChatGPT 发布前几乎为零。研究团队通过对2022年至2025年间33个月的网页样本进行大规模分析,证实了 AI 对互联网话语体系带来的实质性改变。

技术分析显示,AI 文本正导致显著的“语义收缩”与“积极性转变”。由于语言模型倾向于向训练数据的平均值收敛,AI 生成内容的语义相似度比人类原创内容高出33%,长期演化可能导致网络空间思想范围的收窄。同时,AI 文本的积极情感得分比人类内容高出107%,呈现出一种人工化的乐观倾向。这种由模型“过度顺从”引发的基调转变,被认为可能在无形中边缘化人类的异议与鲜明观点。尽管公众普遍担忧 AI 会加剧事实错误或导致写作风格消失,但数据层面尚未发现显著的负面相关性。

研究人员警告称,互联网内容的同质化与乐观化正诱发公众的“现实冷漠症”,即用户可能因无法分辨虚实而对在线信息的整体可信度产生怀疑。此外,高占比的 AI 内容也大幅提升了“模型崩溃”的风险,即后续模型因在自身输出的数据上训练而导致性能退化。这一趋势正促使行业重新思考搜索与推荐算法的逻辑,未来或将更侧重于对语义多样性的识别与加密溯源标准的建立。

via AI新闻资讯 (author: AI Base)
Mistral AI发布企业级编排工具Workflows,支持 Python 开发与人工审批

4月28日,Mistral AI宣布推出其企业级 AI 编排层Workflows。作为Mistral Studio平台的关键组成部分,该工具旨在协助企业将零散的 AI 驱动流程转化为可大规模投入生产的系统。目前,Workflows已进入公开预览阶段,吸引了包括ASML、ABANCA及CMA-CGM在内的多家跨国巨头将其应用于核心业务流程。

在技术架构上,Workflows基于高性能Temporal引擎构建,允许开发人员使用 Python 定义复杂流程。其核心优势在于引入了“人工在环”审核机制,仅需一行代码即可在关键节点(如货物放行或数据规格检查)暂停工作流以待人工审批。在保障安全合规的前提下,Mistral AI负责业务编排,而核心敏感数据则保留在客户自有系统内部。员工可通过Le Chat聊天机器人直接触发这些自动化序列。

此次发布标志着Mistral AI补齐了从底层模型到应用编排的全栈能力。在过去一年中,该公司相继推出了用于多智能体协作的Agents API以及开源模型Mistral Small4。近期,Mistral AI更获8.3亿美元融资用于扩建巴黎数据中心。随着企业 AI 需求从“简单的对话”转向“复杂任务自动化”,Workflows的推出将直接加速 AI 技术在严谨商业场景中的工程化落地。

via AI新闻资讯 (author: AI Base)
欧盟未能就人工智能法规达成协议,谈判将在下月恢复

在经过长达 12 小时的谈判后,欧盟各国代表和欧洲议会立法者未能就即将出台的人工智能(AI)法规达成一致。这项法规被认为是全球最严格的人工智能监管措施之一,旨在应对该技术对社会和经济带来的潜在风险。此次谈判于 4 月 29 日举行,虽然各方都认识到推动法规的重要性,但最终仍然因分歧而未能达成协议。

根据计划,新的人工智能法案预计将在 2024 年 8 月生效,其中的关键规定将分阶段实施,以便逐步适应市场的需求。这些法规是欧盟 “数字综合法案” 的一部分,意在简化数字领域的监管,以增强企业在国际竞争中的地位。许多行业,包括生物识别、公共服务和医疗健康等 “高风险” 领域,将面临更严格的技术使用要求。

塞浦路斯担任欧盟理事会的轮值主席国,其官员表示,尽管各方进行了长时间的磋商,但仍无法达成一致。荷兰议员金・范・斯帕伦塔克对此表示失望,并批评大科技公司可能会因监管混乱而受益,反而影响到那些重视安全并提前做好准备的欧洲企业。

谈判在多个国家和立法者坚持豁免一些已经受到行业法规约束的领域后陷入僵局。未来几周,谈判有望重新开启,这将是确保人工智能法规顺利推行的关键时刻。

划重点:

🌍 欧盟与欧洲议会在人工智能法规谈判中未能达成协议,将于下月恢复讨论。

📅 新法规计划于 2024 年 8 月生效,关键条款将分阶段实施。

🚨 部分国家主张豁免某些行业,导致谈判陷入僵局。



via AI新闻资讯 (author: AI Base)
Google Translate 迎来 20 周年,新增发音练习功能

Google 介绍,Google Translate 目前支持近 250 种语言和逾 6 万个语言对,覆盖全球约 95% 人口;每月有超过 10 亿用户使用,月翻译量约 1 万亿词。产品已从早期统计机器学习转向神经网络,如今结合 Gemini 模型和 TPU 持续优化翻译能力。

20 周年新增“发音练习”功能,可在 Android 版应用中用 AI 分析语音并即时反馈,现已在美国和印度向英语、西班牙语、印地语开放。文中还提到 Live translate、离线翻译、Lens 视觉翻译和 Circle to Search 等用法。

Google

🌸 在花频道 · 茶馆讨论 · 投稿通道

via 科技圈🎗在花频道📮 - Telegram Channel
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]