月之暗面发布Kimi K2 性能对标Claude 4成本低80%
近日,国内大模型独角兽“月之暗面”发布并开源其最新一代 MoE 架构基础模型 Kimi K2,总参数量高达 1 万亿(1T),激活参数为 320 亿(32B),已在 Kimi Web 端和 App 端上线。该模型推出不到两天,就在大模型 API 聚合平台 OpenRouter 的 token 使用量上超越了马斯克旗下 xAI 刚发布的“全球最强 AI”Grok 4,引发海外技术社区热议。
Kimi K2 在代码、Agent、工具调用等关键基准测试中均取得开源模型中的 SOTA 成绩。实测中,开发者反馈其性能接近 Anthropic 的 Claude 4,但价格仅为后者的 20%,性价比极高。此外,Kimi K2 支持 OpenAI 和 Anthropic 双 API 格式,兼容性强,可无缝接入各类开发框架。
多位开发者在对比测试中指出,Kimi K2 的编程能力几乎可与原版 Claude Code 平替 85%,远超 DeepSeek 等其他替代方案。有用户表示,用 Kimi K2 几乎写完一整个前端组件库,且过程完全自主,未引用外部库,仅用简单提示词就生成高质量代码。
在 Agent 工具调用方面,Kimi K2 同样表现出色。前 Anthropic 工程师 Pietro Schirano 表示,Kimi K2 是继 Claude 3.5 Sonnet 之后首款让他放心用于生产环境的非 Anthropic 模型,并具备并行调用多工具和“知道何时停止”的智能决策能力。
技术架构方面,Kimi K2 与 DeepSeek V3 高度相似,但在注意力头数量和专家数量上做了调整,提升了长上下文效率和 token 利用率。其训练使用了自研的 MuonClip 优化器,解决了注意力 logit 爆炸带来的训练不稳定性问题。
此外,Kimi K2 还在创意写作、角色扮演等任务中超越 o3,中文创意写作能力被认为唯一可比肩 R1。有网友评价称:“这是开源模型的又一次胜利。”
Kimi K2 的发布不仅展示了中国大模型公司在架构创新和优化上的实力,也为全球开发者提供了高性能、低成本的新选择,标志着开源大模型生态进一步成熟。