|
|
给大家带来归一化的Qwen3.5系列模型分数汇总, 惊喜的发现是 27B dense 这个模型的确不以言, 基本达到了期间模型 Qwen3.5-397B-A17B 94% 的性能. 尤其是视觉Agent能力 (比如操作浏览器/手机等图形界面) 是这些里面最强的. 以及长上下文能力, 指令遵循也很不错.
通用 Agent 能力 (比如工具调用, 就是 OpenClaw 的绝大多数应用场景) 看上去 35B-A3B 和 27B 是一样的, 也有好多朋友问我, 我个人的主观感受是 27B 更强一丢丢, 但是带来的提升完全不值得上个 27B 的 dense 模型 (仅通用Agent能力来说哈), 还是 35B-A3B 这种激活量小的 MoE 更具性价比.
另外9B无论什么时候都是优于4B的, 即使9B量化到5bit, 跟4B的8bit差不多大小了, 我也还是推荐使用9B.
不过122B-A10B 就没太大的性价比了, 从分数上来看跟 27B 没有太大差距. 只不过知识量会大一些.
总结的话, OpenClaw 无脑上 35B-A3B, 传统任务比如文件处理, 写代码, 文本总结等能用27B尽量用27B, 9B 是最后的选择, 宁可 9B-5bit 量化也别 4B.
##
|
本帖子中包含更多资源
您需要 登录 才可以下载或查看,没有账号?立即注册
×
|