阿里云发布 Qwen3-235B-A22B-FP8 和 Qwen3-Coder。
前者是 Qwen3-235B-A22B 的更新版,分为思考和非思考两个模型。据介绍,该模型在多语言的长尾知识覆盖方面取得进步,在主观任务中更能契合人类偏好,上下文长度提高到 256k Tokens。
后者是 Qwen 系列首个 MoE 代码模型,总参数 480B ,激活参数 35B,上下文 256k,可拓展至 1M。该模型主要改进了前代 Coder 模型缺失的 Agent 能力。
阿里还专门开源了命令行工具 Qwen Code,并且 Qwen Coder 模型也可通过 Anthropic 格式的 API 接入 Claude Code。
前者是 Qwen3-235B-A22B 的更新版,分为思考和非思考两个模型。据介绍,该模型在多语言的长尾知识覆盖方面取得进步,在主观任务中更能契合人类偏好,上下文长度提高到 256k Tokens。
后者是 Qwen 系列首个 MoE 代码模型,总参数 480B ,激活参数 35B,上下文 256k,可拓展至 1M。该模型主要改进了前代 Coder 模型缺失的 Agent 能力。
阿里还专门开源了命令行工具 Qwen Code,并且 Qwen Coder 模型也可通过 Anthropic 格式的 API 接入 Claude Code。