2025 年 1 月 20 日,DeepSeek AI 正式发布推理模型 DeepSeek-R1,该模型在数学、代码和推理等多个领域达到前沿水平,成为世界首个在多个基准测试上对标 OpenAI o1 正式版的开源模型。
DeepSeek R1 采用混合专家架构,总参数量达 671B,每个词元激活 37B 参数。模型在推理能力测试中表现卓越:在 AIME 2024 数学竞赛中达到 79.8% 的通过率,超过 OpenAI o1-1217;在 MATH-500 基准测试中取得 97.3% 的成绩,达到了目前最优水平。在代码竞赛平台 Codeforces 上,模型获得 2029 Elo 评分,超越 96.3% 的人类参赛者。
值得一提的是,DeepSeek R1 同步开源了 6 个蒸馏小模型,基于 Qwen 和 Llama 系列,涵盖 1.5B 至 70B 不同规模。其中,DeepSeek-R1-Distill-Qwen-32B 在 AIME 2024 等多个重要任务上超越了 OpenAI o1-mini。
遵循 MIT License 协议,DeepSeek R1 允许商用,且明确开放通过模型输出蒸馏训练其他模型。目前官方已在 Hugging Face 平台开源全部模型权重。API 服务定价为:每百万输入词元缓存命中 1 元、未命中 4 元,每百万输出词元 16 元。
DeepSeek 官网和应用同步更新,用户开启「深度思考」模式即可直接调用最新版 DeepSeek-R1。该模型最大亮点是开放了思维链输出,通过设置 model='deepseek-reasoner' 即可在 API 调用中获取。
(DeepSeek)