🚀 Qwen3-Coder-Next 发布:以 3B 激活参数挑战顶尖编程模型性能

阿里巴巴 Qwen 团队近期推出 Qwen3-Coder-Next 模型,凭借其高效的架构设计在开发者社区引发热议。该模型采用专家混合(MoE)架构,总参数量为 80B,但单次推理仅需 3B 激活参数。官方数据显示,该模型在 SWE-bench Pro 基准测试中取得了 44.3% 的成绩,性能宣称可比肩 Claude 3.5 Sonnet 等顶级闭源编程模型。

在部署与实测方面,开发者已通过 llama.cpp、MLX 及 Unsloth 动态量化技术,成功在 64GB 内存的 MacBook Pro 或配备 RTX 3090/4090 显卡的个人电脑等消费级硬件上实现本地运行。在特定硬件环境下,该模型推理速度可达 80 tokens/s,并支持最高 256k 的上下文窗口。虽然部分用户反馈其在处理复杂逻辑时仍与顶级闭源模型存在差距,且偶尔会出现思维循环,但其在处理常规代码生成、单元测试及简单 Bug 修复方面的表现被认为已达到“可用”水平。

此外,该模型的发布进一步推动了关于“本地模型”与“主权计算”的讨论。受 Anthropic 近期限制第三方工具调用其订阅接口等政策影响,开发者对开源及本地化模型的需求日益增长。社区讨论指出,Qwen3-Coder-Next 的低资源占用特性使其非常适合作为本地子代理(Sub-agent),与云端顶级模型配合使用,在保障数据隐私的同时降低 API 调用成本。目前,该模型已在 Hugging Face 等平台开放,并获得多个主流推理框架的支持。

(HackerNews)

via 茶馆 - Telegram Channel
 
 
Back to Top
Copyright © 2025 BESTAI. All rights reserved.
BEST AI API中转 - OpenAI DeepSeek Claude Gemini Grok MidJourney API 2.8折起
[email protected]