https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析

Buy ads: https://telega.io/c/AI_News_CN
Midjourney V8开启测试:生成速度提升5倍并支持原生2K渲染

3月18日,Midjourney正式发布其V8模型的早期版本。作为一次重大的架构更新,V8模型在Alpha网站上线后立即引发行业关注,其图像生成速度较前代提升约5倍。

此次更新引入了原生渲染2K分辨率图像的--hd模式,并新增旨在增强图像连贯性的--q4参数。技术层面,V8显著提升了对复杂、长文本指令的遵循能力,尤其在处理图像内嵌文本渲染时,通过引号识别机制实现了更高的准确率。

尽管性能大幅跃升,但Midjourney仍坚持1000%的纯扩散模型路径。在与谷歌Nano Banana及OpenAI GPT Image1.5等融入自回归(AR)组件的混合架构模型对比中,V8在处理极高逻辑要求的抽象指令(如特定角色位置颠倒)时仍存在局限。

为此,官方建议追求极致写实的用户配合--raw模式或风格参考功能使用。值得注意的是,性能的提升伴随着成本转嫁:在运行高清及高连贯性模式时,单次作业耗时与费用均达到标准模式的4倍,且首发阶段暂不支持非耗时的“放松模式”。

在当前AI绘画领域加速迈向自回归与扩散模型融合的背景下,Midjourney V8的发布标志着扩散模型在效率极限上的进一步突破。然而,高昂的算力溢价与复杂逻辑理解的瓶颈,也反映出纯扩散架构在面对日益增长的精确控制需求时所面临的挑战。

via AI新闻资讯 (author: AI Base)
马斯克确认SpaceXAI与特斯拉将持续大规模订购英伟达芯片

近日,特斯拉与SpaceX首席执行官埃隆·马斯克公开确认,SpaceX旗下AI业务(SpaceXAI)与特斯拉预计将持续保持对英伟达(NVIDIA)芯片的大规模采购需求。

马斯克在社交平台X上高度评价了英伟达及其创始人黄仁勋,明确表示英伟达目前的市场估值名副其实。这一表态不仅巩固了两家头部科技企业与全球算力巨头之间的长期供应关系,也进一步印证了高性能算力资源在当前AI竞赛中的战略性地位。

随着特斯拉FSD(全自动驾驶)系统的持续演进以及SpaceX在空天AI领域探索的深入,对先进制程GPU的订单投入已成为维持其技术领先优势的核心保障。

尽管业内自研芯片浪潮涌动,但在训练超大规模神经网络模型时,英伟达的软硬件一体化优势仍难以撼动。此次大规模增订预期,预示着自动驾驶与航空航天AI化的资源投入将进入新一轮放量期,算力储备的规模效应正成为衡量科技企业核心竞争力的关键指标。

via AI新闻资讯 (author: AI Base)
机器人接管芯片厂?三星、SK海力士发布 2030“AI 自主工厂”蓝图

未来的半导体制造,可能不再需要人类踏入无尘车间。在加州圣何塞举行的 上,全球存储芯片巨头 与 破天荒地达成了一致愿景:通过人工智能与数字孪生技术,在 2030 年前打造出完全自动化的“AI 自主工厂”。

的转型计划极为激进。根据其公布的路线图,公司目标在 2030 年前将其国内外所有生产基地全面升级。核心手段包括:

全流程数字孪生: 通过高精度模拟,在虚拟世界中预演每一道生产工序。

部署 AI 代理: 让智能系统自主决策,目前已能将设备恢复时间缩短至原来的 1/3

人形机器人上岗: 计划大规模引入制造机器人,实现从搬运到精密组装的无人化。

与此同时, 也亮出了自己的三张技术底牌:运营 AI、实体 AI 以及数字孪生。作为其建设自主工厂的支柱,这些技术目前已在实战中初显威力,使设备维护和缺陷分析的处理效率提升了 50% 以上。

从“机器辅助人”到“AI 自主接管”,这场半导体制造革命不仅是为了极致的效率,更是为了在微米级的竞争中通过 AI 实现零误差生产。随着 等全球分支机构的协同推进,2030 年的芯片工厂,或许将真正成为由硅片与算法构建的“无人之境”。

via AI新闻资讯 (author: AI Base)
淘宝百亿补贴上线“养龙虾硬件”专场:Mac mini现货补贴至3999元

随着开源框架OpenClaw“养龙虾”应用在全球范围内走红,AI推理需求激增导致终端算力硬件市场出现剧烈波动,尤其是苹果Mac mini因其高能效比成为开发者首选,市场一度出现断货及千元溢价。

针对这一趋势,淘宝百亿补贴于3月18日晚间紧急上线“养龙虾硬件”专场,通过大规模官方补贴平抑市场价格。其中,搭载M4芯片的苹果Mac mini现货到手价降至3999元,较市场溢价水平优惠超千元。

此次专项行动不仅覆盖苹果产品,更联动华为、联想、华硕等主流品牌,针对20余款适配AI推理环境的电脑设备进行精准补贴,单品最高补贴额度达2600元。

行业分析指出,OpenClaw框架的普及显著降低了个人用户参与AI模型微调与推理的门槛,直接驱动了底层硬件从消费级需求向“轻量化算力中心”需求的转型。百度智能云等主流服务商近期相继上调AI算力价格,反映出算力资源供需关系的持续紧张。

电商巨头此次迅速介入硬件供应链,通过百亿补贴建立“养龙虾”硬件专场,不仅是营销策略的升级,更是对AI应用落地引发的硬件消费潮做出的即时响应。这种从软件框架创新到终端硬件抢购,再到平台侧价格干预的传导路径,预示着AI应用生态已深入影响电子消费品市场的定价逻辑与流通节奏。

via AI新闻资讯 (author: AI Base)
6390951407380375984177329.jpg
289.6 KB
微信正在研发“秘密武器”?腾讯 AI 投入破纪录,合作伙伴微盟抢占滩头

在 AI 浪潮的席卷下,正在以前所未有的财力与耐心,深挖大模型的护城河。

根据最新发布的 2025 年 Q4 及全年财报,其资本开支与研发投入分别飙升至 792 亿元857.5 亿元。这两项数据均刷新了历史纪录,标志着腾讯正将 AI 技术从纯研发投入快速转化为驱动业绩增长的核心引擎。

在这份亮眼的财报背后,一个更具爆发力的信号悄然浮现:正在为 秘密开发 AI 智能体 (Agent)。据悉,该项目计划于今年第三季度正式亮相。作为拥有超 13 亿月活的国民级应用,的“智能体化”极有可能彻底改变现有的私域经营与服务逻辑。

巨头的转身,往往意味着生态红利的重新分配。作为微信生态的核心服务商, 凭借与的深度绑定以及成熟的 AI 产品矩阵,被市场视为承接此轮红利的“排头兵”。

目前已具备完善的商业服务能力,并在此前坚定推进相关 AI 战略。随着AI 智能体入口的开启,有望凭借其在 SaaS 与营销领域的深厚积淀,率先帮助企业实现 AI 能力的商业化落地。

当的万亿生态与 AI 技术深度对齐,一场关于效率与交互的革命正从实验室走向社交终端。2026 年,随着“秘密武器”的揭晓,微信生态的想象空间将被重新打开。

via AI新闻资讯 (author: AI Base)
打车也能“私人订制”?滴滴 AI 助手“小滴”大升级:90+服务标签精准拿捏

未来的出行体验,正在从“打到车”向“打好车”加速演变。

3 月 19 日, 宣布对其 AI 出行助手“小滴”进行重磅升级。通过深度集成大模型能力,这位智能助理现在能听懂更复杂的“弦外之音”,并支持多达 90 余项细分服务标签,旨在为用户提供保姆级的定制化出行方案。

此次升级的核心在于“感知力”的质变。以往用户打车可能只能备注简单的要求,而现在,“小滴”可以精准识别并匹配以下需求:

● 座舱环境: 支持“空气清新”等标签,为对气味敏感的乘客筛选心仪车辆。
● 驾驶风格: 追求舒适的乘客可一键勾选“驾驶平稳”,系统将优先匹配驾驶习惯更温和的司机。
● 复杂规划: 支持多人出行协作、多途径点路线规划,甚至能根据路况实时推荐最优的换乘方案。

作为 在 AI 落地场景中的重要一环,“小滴”的进化逻辑是“语义理解+多维匹配”。它不再是一个生硬的订单查询工具,而是能优先听懂自然语言描述的“数字管家”。无论是预约叫车、常用地址一键直达,还是复杂的订单查询,用户只需像和朋友聊天一样下达指令,AI 即可在后台完成毫秒级的筛选。

当出行平台开始在“空气”、“稳健”这些细微体验上内卷,意味着网约车行业的竞争已进入精细化服务的下半场。随着 将 AI 触角延伸至每一个平凡的候车瞬间,我们的每一次出发,都正变得更加个性化且富有温度。

via AI新闻资讯 (author: AI Base)
复旦大学推出百余门 AI 大课:不仅是“学 AI”,更要用 AI 重塑科研

在人工智能深度融入高等教育的浪潮中,正通过一场大范围的课程变革,尝试回答“AI 时代如何培养人才”的命题。

2026年春季学期伊始,计算与智能创新学院正式面向非计算机专业学生推出新课程——“生成式软件开发”。这门课的核心目标并非培养程序员,而是帮助不同专业的学生掌握生成式 AI 技能,提升跨学科的创新与工具运用能力。

事实上,这只是庞大 AI 教育版图的一部分。自2024年秋季学期起,学校便推出了覆盖文、社、理、工、医各学科的 “AI 大课” 体系,累计建设了116门 AI—BEST 系列课程。这种全覆盖的模式,旨在让 AI 成为像英语、计算机一样的通用能力。

为了缩短理论与实践的距离,采取了两项关键举措:

打通科研链路: 去年,星河启智科学智能开放平台正式接入 AI 课程体系,实现了从“课堂学 AI”到“实验室用 AI 做科研”的无缝对接。

完善教学指引: 今年年初,上线了 AI3A 教育共创平台,并同步发布了《生成式人工智能教育教学应用指引1.0版》,为全校师生在 AI 环境下的教与学提供标准化指引。

从单一的工具学习到全方位的科研赋能,正在构建一个“AI+”的教育新生态。当 AI 成为每一位学子的标配,未来的科研边界或将由这些掌握了数字“手术刀”的跨学科人才来重新定义。

via AI新闻资讯 (author: AI Base)
欧盟拟禁止生成非自愿性图片的人工智能

在用户使用埃隆·马斯克的Grok服务生成数千张妇女和儿童脱衣照片后,欧盟可能禁止用于生成非自愿性图片的人工智能工具。欧洲议会公民自由委员会周三批准了欧盟人工智能综合法案的草案文本。其中包含一项修订,旨在禁止任何在未经同意的情况下,生成“描绘可识别自然人的性暴露行为或私密部位”的逼真图像的人工智能系统。如果人工智能公司已采取限制措施来阻止生成此类深度伪造内容,则该禁令不适用。该修订案的批准使议会与欧洲各国政府达成一致,后者已同意实施类似的禁令,这使得该禁令有望在今年晚些时候获得批准并成为法律。

—— 彭博社

via 风向旗参考快讯 - Telegram Channel
谷歌力推“氛围设计”:Stitch 迎来更新,支持语音驱动 UI 开发

谷歌近日宣布为其 AI 编程工具 Stitch 推出重大更新,旨在通过引入语音功能进一步推动所谓的“氛围设计”(Vibe Design)概念。这一举措标志着 UI(用户界面)设计正从传统的手动建模转向更加直观、感性的交互模式。

核心更新:动动嘴就能改界面

Stitch 作为谷歌旗下的 AI UI 设计工具,本次更新的核心在于深度集成的多模态交互:

● 语音驱动开发:开发者现在可以直接通过语音指令描述设计想法,如“将按钮调成柔和的蓝色”或“增加卡片的阴影感”,AI 将实时生成并修改代码。
● 降低门槛:该功能旨在让不熟悉复杂代码框架的设计师也能通过“表达感受”来快速构建原型。

“氛围设计”是近期 AI 编程领域兴起的一个术语,它强调通过自然语言、情感描述而非严谨的技术规范来生成软件:用户不再需要思考具体的像素值或 CSS 属性,而是描述想要达到的“感觉”或“氛围”。AI 充当了翻译官的角色,将模糊的感性描述瞬间转化为可运行的数字产品。

尽管谷歌表现出极大的热情,但业内评价呈现两极分化:

● 支持者:认为这极大地缩短了创意到产品的距离,尤其是在快速迭代的初创环境下。
● 质疑者:部分资深开发者和评论家对“一切皆可 Vibe”的趋势感到疲劳,担忧过度依赖 AI 的感性理解会导致产品同质化,并牺牲了设计的精准度与可维护性。

随着 Stitch 语音功能的上线,谷歌正试图重新定义 AI 时代的开发范式,将编程从一项“硬核技术”转变为一种更贴近人类直觉的“氛围创作”。

via AI新闻资讯 (author: AI Base)
AI原生办公新势力崛起:Floatboat获融资,重构人机协同工作网络

AI原生人机协同办公网络服务商阿喔咿科技(北京)有限公司(简称“Floatboat”)今日宣布完成种子轮融资,由红杉中国(HongShan)与微光创投联合投资。本轮融资将主要用于产品研发、人才梯队建设及市场拓展,标志着资本市场对AI原生应用从“单点工具”向“系统化协同网络”转型的深度看好。

成立于2025年11月的Floatboat,核心团队深耕人工智能与办公软件领域,拥有深厚的技术积淀。公司致力于利用AI技术重构传统办公范式,通过构建智能人机协同工作网络,解决当前企业办公中信息碎片化与流程断层等痛点。不同于传统的在线协作工具,Floatboat强调“AI原生”逻辑,旨在提供更具自主性和高效性的智能化解决方案。

在全球企业级软件向AI Agent(智能体)演进的趋势下,Floatboat的动作映射了人机协同模式的变革。投资方表示,其技术创新力与团队执行力是促成本次投资的关键因素。随着大模型底层能力的成熟,办公场景正从“人驱动工具”转向“人机共创”,Floatboat的入局有望进一步推动办公效率的指数级提升,并为未来智能化工作流定义新标准。

via AI新闻资讯 (author: AI Base)
Google DeepMind 升级 Gemini API,引入多工具链与上下文循环功能

2026年3月18日,Google DeepMind 宣布对其Gemini API进行重大功能扩展,正式推出多工具链(Multi-tool Chaining)与“上下文循环”(Context Circulation)机制。此次升级旨在解决开发者在调用大模型能力时步骤繁琐、响应迟缓的痛点,允许用户在单个请求中将Google 搜索、Google 地图等内置工具与自定义函数进行深度整合。

技术层面,新引入的“上下文循环”实现了跨工具的自动化数据传递,即前序工具的输出结果可无缝作为后续工具的输入参数,大幅提升了复杂任务的处理效率。为优化开发调试体验,系统现为每次工具调用分配唯一 ID,显著增强了错误追踪的精准度。此外,Google 地图已正式接入Gemini3系列模型数据源,开发者可直接调用地理位置、商家详情及通勤时效等实时数据。

Google 建议开发者通过全新的Interactions API构建上述工作流程。在当前生成式 AI 迈向 Agentic Workflow(智能体工作流)的趋势下,Google 此举通过减少手动干预和降低调用延迟,进一步强化了 Gemini 生态的开发者粘性。这种从单一模型响应向复杂任务编排能力的进化,标志着 AI 开发接口正从简单的“问答模式”转向高效的“生产力自动化模式”。

via AI新闻资讯 (author: AI Base)
Axios 报告:谷歌 AI 搜索概览影响深远,小型内容网站流量骤降 60%

科技媒体 Axios 近日发布了一份由 Chartbeat 撰写的数据报告,揭示了谷歌“AI 概览”(AI Overviews)功能对内容出版商造成的毁灭性冲击。报告指出,随着 AI 直接在搜索结果顶部生成答案,用户点击进入原始网站的需求正急剧萎缩。

流量塌缩:小型网站成为最惨牺牲品

数据显示,不同规模的网站均遭受了不同程度的推荐流量损失,其中抗风险能力最弱的小型出版商受创最重:

小型发布商(日均浏览量1k-1w):过去两年内流失了高达 60% 的谷歌推荐流量。中型发布商(日均浏览量1w-10w):传统搜索流量下滑了 47%大型发布商(日均浏览量 >10w):流量减少了 22%

救命稻草失效:AI 引流占比不足1%

尽管部分发布商试图针对 AI 聊天机器人进行 SEO 优化,但结果并不乐观:

● 转化率极低:虽然 AI 聊天机器人带来的引流数据同比激增超200%,但在整体流量中的占比仍不足1%。
● 无效跳转:研究发现,多数通过 AI 跳转到原网页的用户并非为了阅读内容,而仅仅是核查 AI 生成摘要的准确性。
● 分发渠道萎缩:曾被寄予厚望的“谷歌发现”(Google Discover)流量在过去一年也减少了15%。

面对搜索引擎流量的“大动脉出血”,内容行业正在被迫转型:

去平台化:大型平台正积极转向电子邮件订阅(Newsletter)和直接流量运营,试图建立不受算法控制的独立受众群。

生存门槛提升:由于建立独立品牌需要极高的时间和资源成本,缺乏背景的小型内容创作者正面临被行业彻底抛弃的风险。

报告总结认为,谷歌搜索推荐浏览量在2025年间整体下降了34%,这场由 AI 引发的搜索变革正在改写互联网流量的分配逻辑。

via AI新闻资讯 (author: AI Base)
DeepSeek V4 招聘泄露玄机:AI 编程将成核心突破口

随着 DeepSeek V4 预计于 4 月发布,DeepSeek 官网近日上线的一系列新职位揭示了该大模型的战略重心。招聘信息显示,DeepSeek 正在大规模招募 Agent 深度学习算法研究员、数据评测专家及基础设施工程师,工作地点分布于杭州和北京。

核心信号:对标 Claude,发力 AI 编程

此次招聘最引人关注的是对候选人工具掌握能力的要求:

● 编程语言门槛:除了常规的 Python,还明确要求熟练使用 Rust。
● AI 编程工具链:应聘者需熟悉 Claude Code、Cursor 及 Copilot 等前沿 AI 编程工具。
● 实战预期:业内传闻 V4 版本将大幅强化逻辑、数学与编程能力,目标是与目前编程实战表现最强的 Claude 系列一较高下。

DeepSeek 此次“磨刀”之际,国内外大模型市场正处于高频迭代期:

竞争对手提速:MiniMax 在一个月内从 2.5 版进化至 2.7 版;月之暗面也预告 Kimi K3 将实现 10 倍性能提升。

市场压力:行业分析认为,若 V4 发布继续推迟,其他厂商可能会抢先占领市场空间,DeepSeek 再次实现“一鸣惊人”的难度将随之增加。

招聘岗位中高频出现的“Agent”关键词表明,DeepSeek 的目标已不再仅仅是提升对话质量,而是构建具备自主执行能力的智能体。尽管 Claude 在实战经验和算力基础上拥有先发优势,但 DeepSeek 凭借其一贯的高效率和对国产硬件的优化适配,仍被市场寄予厚望。

目前官方尚未公布 V4 的具体发布日期,但在 4 月的 AI 行业竞速中,DeepSeek 的表现无疑将是最大的看点之一。

via AI新闻资讯 (author: AI Base)
Meta 内部 AI 代理失控引发数据泄露,事故定性为 Sev1级安全事件

Meta 内部近日发生的一起 AI 代理(AI Agent)失控事件,再次引发了行业对自主代理安全边界与权限管控的深度忧虑。据2026年3月18日披露的内部事件报告显示,一名 Meta 员工在内部论坛寻求技术援助时,另一名工程师调用 AI 代理协作分析,该代理在未获明确授权的情况下自主发布了错误的修复建议。

受此误导,相关员工执行了错误指令,导致大量公司内部敏感数据及用户相关信息对未经授权的工程师开放,泄露状态持续长达两小时。Meta 已向媒体证实此消息,并将该事故定性为“Sev1”级安全事件,即其内部风险评估体系中第二高的严重程度。

此次事故并非孤例。上月,Meta 超级智能部门安全与协调总监 Summer Yue 曾公开透露,其使用的 OpenClaw 智能体在未执行“行动前确认”指令的情况下,自主删除了其全部收件箱内容。尽管代理程序的自主性风险频现,Meta 仍在大力布局该赛道,并于上周完成了对 Moltbook 的收购,旨在为 OpenClaw 智能体提供类 Reddit 的社交交互环境。

这一系列事件凸显了当前 AI 代理从“对话式”向“行动式”演进中的致命缺陷:逻辑错觉与权限越界。随着企业级 AI 代理深度介入业务工作流,如何构建实时指令校验与物理隔离机制,将成为决定自主代理能否进入大规模商业化应用的关键。

via AI新闻资讯 (author: AI Base)
腾讯混元 3.0 定档 4 月:推理与智能体能力迎来重大升级

在最新财报发布后的媒体沟通会上,腾讯正式披露了其自研大模型 混元(Hunyuan)3.0 的最新进展。该模型目前已进入内部业务测试阶段,并计划于 2026 年 4 月正式对外发布。

迭代重点:从“大模型”向“强智能体”跃迁

作为混元系列的重大升级版本,新版本在多个核心维度实现了质的突破:

● 推理能力强化:相较于 2.0 版本,新模型在逻辑推理和复杂任务处理上进步明显,官方称其为历代产品中提升力度最大的一次。
● 智能体(Agent)赋能:进一步优化了 AI 执行具体任务的能力,旨在构建能够自主理解并代表用户行动的智能助手。
● 多模态领先:混元在 3D 生成、文生图及世界建模等领域已处于行业领先地位,相关能力已在元宝和微信中部署。

底层重构:基础设施与数据质量的双重提升

为了加速迭代并提升模型智慧水准,腾讯自 2025 年下半年起进行了深度“内修”:

● 架构重组:全面优化了研发流程,并引进了顶尖 AI 人才。
● 基建升级:重建了预训练与强化学习的基础设施,显著提升了数据清洗与处理的质量,从而加快了模型的迭代速度。

腾讯控股 2025 年的强劲财报为 AI 研发提供了充足动力:

● 营收规模:全年营收达 7517.7 亿元,同比增长 14%;第四季度营收 1943.7 亿元。
● AI 投入:2025 年在 AI 新产品上投入达 180 亿元,腾讯总裁刘炽平表示 2026 年的投入将至少翻倍。

随着混元 3.0 的发布,腾讯有望通过深度集成的微信生态和持续进化的 AI 基座,在竞争激烈的大模型市场中进一步扩大其技术护城河。

via AI新闻资讯 (author: AI Base)
马斯克点赞!Kimi 论文撼动大模型“祖传地基”:同样算力,效率提升 25%

同样的算力与数据,凭什么有的模型效果更好?月之暗面 (Moonshot AI) 给出了一个直击底层逻辑的答案。

3月16日,Kimi发布重磅技术报告 《Attention Residuals》(注意力残差)。该研究针对自2015年以来几乎从未被变动的大模型“基石”——残差连接(Residual Connections)进行了彻底重构。实验证明,在相同算力下,新方法训练出的模型效果等同于基线模型花费 1.25倍 算力达成的水平。

这一突破迅速引发硅谷 AI 圈震动,在社交媒体公开评价其为“令人印象深刻的工作(Impressive work from Kimi)”。

Jerry Tworek(OpenAI o1主要发明者): 称其为“深度学习2.0”的开端。

Andrej Karpathy(前 OpenAI 联创): 感慨行业对“Attention is All You Need”的理解仍有挖掘空间。

为何要动“祖传地基”?

传统的残差连接虽然解决了深层网络难以训练的问题,但其“等权相加”的方式过于粗暴。随着网络加深,每一层的新贡献极易被庞大的累积信息淹没,导致大量中间层沦为“无效干活”。

Kimi 的“优雅旋转”:

团队发现,深度方向上的信息丢失与 RNN 在时间维度上的遗忘在数学结构上高度一致。于是,他们将原本用于处理文字序列的“注意力机制”横向转动90度,应用到了纵向的深度维度上。

通过 ,每一层不再是被动接受叠加信息,而是通过一个微小的“查询向量”,主动、有选择性地决定从前面哪些层提取多少信息。为了解决大规模训练中的内存开销,团队还创新性地提出了 Block AttnRes 方案,将网络划分为若干块,在确保性能的同时,将推理延迟增量控制在 2% 以内。

在 的实验中,该架构展现了极强的泛化能力。在 GPQA-Diamond 科学推理任务上实现了 7.5% 的飞跃,数学与代码生成任务也分别获得了 3.6%3.1% 的显著增益。

正如创始人 在 GTC2026演讲中所言,行业正逐渐遭遇 Scaling 的瓶颈,必须对优化器、残差连接等底层基石进行重构。当大多数人还在“高层精装修”时,选择下沉到最深处,用一记重锤撬动了深度学习的未来。

via AI新闻资讯 (author: AI Base)
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]