首页 十大品牌文章正文

迄今为止最大的开源模型Kimi K2 Thinking ,硬

十大品牌 2025年11月08日 09:15 0 admin

大家好,我是 Ai 学习的老章

Kimi 也算我们的常客,尤其是 K2 模型,十分亮眼,目前也是我 Agent 常配模型之一


昨晚Kimi-K2-Thinking 终于来了!只在官方 API 文档中更新了模型信息,我也做了一个小测试,还不错,刚刚模型文件开源,技术博客也发布了,本文做个梳理。

K2 Thinking 简介

kimi-k2-thinking 模型是具有通用 Agentic 能力和推理能力的思考模型,它擅长深度推理,并可通过多步工具调用,帮助解决各类难题。

什么让它与众不同:
⚡ 原生 INT4 量化 → 2 倍快速推理
占用内存减半,无精度损失
256K 上下文,支持 200-300 次工具调用

Kimi K2 Thinking 上下文长度为 256k。(从常规的 Kimi K2 的 128k 提升而来),总参数 1T,激活参数 32B

官方释放的基准测试结果:

在 HLE (44.9%) 和 BrowseComp (60.2%) 上达到 SOTA
最多可以执行 200 – 300 个连续的工具调用 无需人工干预
在推理、自主搜索和编程方面表现出色

迄今为止最大的开源模型Kimi K2 Thinking ,硬

需要指出的是,Kimi 非常自信的与最强的闭源模型进行对比,在多个基准中结果反超闭源模型。

下面是更全面的对比结果,确实不需要与其他开源模型比参数了:

迄今为止最大的开源模型Kimi K2 Thinking ,硬

artificialanalysis.ai 也对 Kimi K2 Thinking 做了基准测试,结果也十分优秀

➤ Kimi K2 Thinking 在 ²-Bench Telecom 代理工具使用基准测试中获得了 93% 的成绩,这是一个 agentic tool 基准测试,模型作为客户服务代理进行操作。在长期代理上下文中的工具使用是 Kimi K2 Instruct 的强项,而新的 Thinking 变体在此方面取得了显著进步。

迄今为止最大的开源模型Kimi K2 Thinking ,硬

K2 Thinking 本地部署

K2 Thinking 的模型文件只有 594GB

迄今为止最大的开源模型Kimi K2 Thinking ,硬

https://huggingface.co/moonshotai/Kimi-K2-Thinking

K2 Instruct 和 K2 Instruct 0905 的大小则超过 1TB,为何 Thinking 之后 594GB 呢?

这是因为 K2 Thinking 使用 INT4 精度而非 FP8,Moonshot 在后训练阶段使用量化感知训练来实现这一点,这意味着推理和训练的效率提升。使用 INT4 的一个潜在原因是,Blackwell 的 NVIDIA GPU 不支持 FP4,因此 INT4 更适合在较陈旧的硬件上实现效率提升。

vLLM 0Day 支持 K2 Thinking 的部署,命令如下

              # 安装uv venvsource .venv/bin/activateuv pip install -U vllm --pre --extra-index-url https://wheels.vllm.ai/nightly --extra-index-url https://download.pytorch.org/whl/cu129 --index-strategy unsafe-best-match # for xformers# 部署vllm serve moonshotai/Kimi-K2-Thinking \  --trust-remote-code \  --tensor-parallel-size 8 \  --enable-auto-tool-choice \  --tool-call-parser kimi_k2 \  --reasoning-parser kimi_k2  \## `--reasoning-parser` 标志指定用于从模型输出中提取推理内容的推理解析器。
迄今为止最大的开源模型Kimi K2 Thinking ,硬

要启动 Kimi-K2-Thinking 需要 8 个 141GB 的 H200/H20,成本还是蛮高的,不过即便再量化,估计向下空间也不大了吧?已经 int4 了,还能怎样。

推荐使用 解码上下文(DCP)并行部署,添加 --decode-context-parallel-size number 来启用解码上下文并行:

              vllm serve moonshotai/Kimi-K2-Thinking \  --trust-remote-code \  --tensor-parallel-size 8 \  --decode-context-parallel-size 8 \  --enable-auto-tool-choice \  --tool-call-parser kimi_k2 \  --reasoning-parser kimi_k2  \

配合 DCP 后,优势显著(43% 更快的 Token 生成,26% 更高的吞吐量),同时几乎没有缺点(中位数延迟改善微乎其微)

指标TP8TP8+DCP8变更改进 (%) 请求吞吐量 (req/s)1.251.57+0.32+25.6%输出标记吞吐量 (tok/s)485.78695.13+209.35+43.1%平均 TTFT(秒)271.2227.8-43.4+16.0%中位数 TTFT(秒)227.4227.1-0.3+0.1%

后面我会拿之前的用例详细测试一下,同时也把 Claude code 后台模型改成 K2 Thinking 多用一用

如有能再量化同时保障效果不打大折扣,把部署成本控制在 4 卡就好了,我也可以本地部署试试了。

发表评论

长征号 Copyright © 2013-2024 长征号. All Rights Reserved.  sitemap