https://t.me/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
📈主流AI服务状态页通知 | 🆕汇集全网ChatGPT/AI新闻 #AI #ChatGPT
🆓免费AI聊天 https://free.oaibest.com
✨BEST AI中转 https://api.oaibest.com 2.8折起 支持OpenAI, Claude code, Gemini,Grok, Deepseek, Midjourney, 文件上传分析
Buy ads: https://telega.io/c/AI_News_CN
百度搜索要“大变天”?大模型悍将轮岗 MEG,搜推一体化提速
百度移动生态正在经历一场深度的“模型化”重塑。据最新消息,百度内部完成了一项关键的人事任命:原大模型算法部 何径舟 正式从基础模型研发部(BMU)轮岗至移动生态事业群组(MEG),出任百度 APP 研发中心负责人。这一调动释放出一个明确信号——大模型与搜索、推荐业务的底层融合已进入快车道。
这次组织调整的核心逻辑在于“技术穿透”:
算法架构融合: 何径舟的入驻,旨在强化大模型等前沿技术在百度搜索、推荐等核心场景的深度应用。
业务协同升级: 此前百度 MEG已完成组织架构优化,将 PC 与移动端的所有搜索业务合并。此次研发龙头的更迭,将进一步加速搜推一体化的进程。
除了核心业务的融合,百度的 AI 触角正在向垂直领域延伸。据悉,百度健康将于近期发布专为医疗场景打造的智能体 DoctorClaw,该业务由杨明璐坐镇把关。
当搜索不再只是关键词的匹配,而是基于大模型的意图理解与任务执行,百度的移动生态正在试图构建一个新的技术护城河。随着大模型技术从实验室走向千万级日活的百度 APP,搜索引擎的形态或许即将迎来彻底的重定义。
via AI新闻资讯 (author: AI Base)
百度移动生态正在经历一场深度的“模型化”重塑。据最新消息,百度内部完成了一项关键的人事任命:原大模型算法部 何径舟 正式从基础模型研发部(BMU)轮岗至移动生态事业群组(MEG),出任百度 APP 研发中心负责人。这一调动释放出一个明确信号——大模型与搜索、推荐业务的底层融合已进入快车道。
这次组织调整的核心逻辑在于“技术穿透”:
算法架构融合: 何径舟的入驻,旨在强化大模型等前沿技术在百度搜索、推荐等核心场景的深度应用。
业务协同升级: 此前百度 MEG已完成组织架构优化,将 PC 与移动端的所有搜索业务合并。此次研发龙头的更迭,将进一步加速搜推一体化的进程。
除了核心业务的融合,百度的 AI 触角正在向垂直领域延伸。据悉,百度健康将于近期发布专为医疗场景打造的智能体 DoctorClaw,该业务由杨明璐坐镇把关。
当搜索不再只是关键词的匹配,而是基于大模型的意图理解与任务执行,百度的移动生态正在试图构建一个新的技术护城河。随着大模型技术从实验室走向千万级日活的百度 APP,搜索引擎的形态或许即将迎来彻底的重定义。
via AI新闻资讯 (author: AI Base)
知名高性能微调库 Unsloth AI 正式推出了 Unsloth Studio。这是一款开源、无代码的本地可视化界面,旨在大幅降低软件工程师微调大语言模型(LLM)的门槛,让开发者彻底告别复杂的 CUDA 环境配置与高昂的硬件成本。
Unsloth Studio 的底层采用了由 Triton 语言编写的定制化反向传播内核,相比标准微调框架实现了质的飞跃:
● 训练速度翻倍:训练效率提升了2倍。
● 显存节省70%:在不损失模型精度的前提下,大幅减少了对 GPU 显存的依赖。
● 消费级显卡友好:开发者现在可以在 RTX4090或5090等单块消费级显卡上,微调原本需要多卡集群才能运行的8B 或70B 参数模型(如 Llama3.3、DeepSeek-R1)。
该平台将数据准备、训练到部署的完整生命周期整合进了一个直观的 Web UI 中:
● 可视化数据配方:引入节点式工作流,支持 PDF、JSONL 等多种格式的自动摄取,并能利用 NVIDIA DataDesigner 将杂乱文档转化为结构化的指令数据集。
● 强化学习支持:内置对 GRPO(群组相对策略优化)的支持。这种技术源自 DeepSeek-R1,能够在无需额外“批判模型”的情况下,让本地硬件也能训练具备多步逻辑推理能力的 AI。
● 一键导出部署:支持一键导出为 GGUF、vLLM 或 Ollama 格式,打通了从训练检查点到生产环境推理的“最后一公里”。
随着 Unsloth Studio 的发布,大模型微调正从依赖昂贵的云端 SaaS 转向更加私密、低成本的本地开发模式。它不仅为 Llama4和 Qwen 系列提供了即时兼容,更为企业所有权的定制化模型开发提供了强大工具。
技术详情:https://unsloth.ai/docs/new/studio
via AI新闻资讯 (author: AI Base)
智能体(Agent)的竞争已经从“比参数”进化到了“比入口”。3月18日,腾讯云宣布其 AI 智能体产品 QClaw(腾讯龙虾) 迎来重磅更新。此次升级最大的亮点在于,QClaw正式打通微信生态,入口从原有的微信客服号全面升级为 微信小程序。
这一改变意味着用户与 AI 智能体的交互变得更加“丝滑”:
文件互传: 用户现在可以直接在小程序内接收QClaw从电脑端发送的文件。
多模态潜力: 未来还将支持语音、图片等微信原生交互,让 AI 真正像一个微信好友一样帮你干活。
为了让新手也能快速上手,QClaw v0.1.9同步上线了 “灵感广场”。这里预置了大量针对办公提效、深度研究、娱乐游戏等场景的常用任务。用户不再需要绞尽脑汁编写提示词,点击对应技能(Skills)即可运行。
自2026年初 OpenClaw 掀起全球“养龙虾”热潮以来,国内巨头纷纷入局。腾讯凭借微信与QQ的生态护城河,在智能体落地上占据了独特优势。与此同时,百度、阿里巴巴、字节跳动等大厂也在各自的生态位上密集排兵布阵,国内“龙虾”产品已超过13款。
但在热潮之下,安全风险同样不容忽视。国家互联网应急中心 近期发布风险提示,指出由于智能体需要较高的系统权限,若安全配置脆弱,极易导致隐私泄露或系统被控。专家建议,用户在部署此类应用时应进行严格的环境隔离,并确保插件来源可靠。
随着内测范围的扩大,QClaw还将陆续支持定时任务、远程切换模型等进阶功能。当 AI 智能体真正住进微信,那个“全能数字助理”的时代或许已经近在咫尺。
via AI新闻资讯 (author: AI Base)
大模型 Scaling 怎么玩?杨植麟 GTC 首秀:押注 Token 效率与 Agent 集群
大模型下半场的入场券,不再仅仅是算力的堆砌,而是对底层逻辑的重构。
在3月18日举办的英伟达 GTC2026大会上,月之暗面 (Moonshot AI) 创始人 杨植麟 发表了备受瞩目的公开演讲。这是他首次系统性地披露Kimi K2.5模型背后的核心技术路线图,为“后 Scaling 时代”的大模型进化提供了新思路。
杨植麟 在演讲中指出,要突破智能上限,必须对优化器、注意力机制及残差连接等核心技术进行“推倒重来”式的重构。他将 Kimi 的进化路径归纳为三个关键维度的协同:
Token 效率: 拒绝资源空转,追求更极致的计算能效比。
长上下文: 持续深化 Kimi 的长程记忆优势,处理超大规模信息。
智能体(Agent)集群: 智能形态正从单兵作战向动态生成的“数字集群”进化。
在 杨植麟 看来,当前的 Scaling 已经演变为在效率、记忆和自动化协作上寻找规模效应。如果能将这三个维度的技术增益相乘,模型将迸发出远超现状的智能水平。
参考此前的发布信息,今年1月底推出的 Kimi K2.5 已经展现了这种“全能”特质。作为月之暗面迄今最强大的开源模型,它采用了原生的多模态架构,不仅在代码、视觉理解上取得了 state-of-the-art(SOTA)的表现,还支持在“思考”与“非思考”模式间灵活切换,精准适配 Agent 任务场景。
随着 月之暗面 技术底牌的亮出,大模型赛道的竞争焦点正从“参数量”转向“智能密度”。当 Agent 集群成为未来智能的终极形态,Kimi能否在杨植麟构想的“三维相乘”逻辑下实现跨越式进化,正成为行业关注的焦点。
via AI新闻资讯 (author: AI Base)
大模型下半场的入场券,不再仅仅是算力的堆砌,而是对底层逻辑的重构。
在3月18日举办的英伟达 GTC2026大会上,月之暗面 (Moonshot AI) 创始人 杨植麟 发表了备受瞩目的公开演讲。这是他首次系统性地披露Kimi K2.5模型背后的核心技术路线图,为“后 Scaling 时代”的大模型进化提供了新思路。
杨植麟 在演讲中指出,要突破智能上限,必须对优化器、注意力机制及残差连接等核心技术进行“推倒重来”式的重构。他将 Kimi 的进化路径归纳为三个关键维度的协同:
Token 效率: 拒绝资源空转,追求更极致的计算能效比。
长上下文: 持续深化 Kimi 的长程记忆优势,处理超大规模信息。
智能体(Agent)集群: 智能形态正从单兵作战向动态生成的“数字集群”进化。
在 杨植麟 看来,当前的 Scaling 已经演变为在效率、记忆和自动化协作上寻找规模效应。如果能将这三个维度的技术增益相乘,模型将迸发出远超现状的智能水平。
参考此前的发布信息,今年1月底推出的 Kimi K2.5 已经展现了这种“全能”特质。作为月之暗面迄今最强大的开源模型,它采用了原生的多模态架构,不仅在代码、视觉理解上取得了 state-of-the-art(SOTA)的表现,还支持在“思考”与“非思考”模式间灵活切换,精准适配 Agent 任务场景。
随着 月之暗面 技术底牌的亮出,大模型赛道的竞争焦点正从“参数量”转向“智能密度”。当 Agent 集群成为未来智能的终极形态,Kimi能否在杨植麟构想的“三维相乘”逻辑下实现跨越式进化,正成为行业关注的焦点。
via AI新闻资讯 (author: AI Base)