2024 年 9 月 19 日,阿里巴巴通义实验室正式发布了全新的 Qwen2.5 大模型系列,标志着全球开源大模型领域的又一次重大突破。据量子位报道,Qwen2.5 凭借其强大的性能和创新特性,在多个任务上超越了 Meta 的 Llama3-405B,成为目前开源大模型中的佼佼者。
本次发布的基础模型包括:
• Qwen2.5:0.5B、1.5B、3B、7B、14B、32B 和 72B
• Qwen2.5-Coder:1.5B、7B 和 32B(即将推出)
• Qwen2.5-Math:1.5B、7B 和 72B
Qwen2.5 系列不仅在参数灵活性上有所突破,还在多个任务上展现出卓越表现。据量子位报道,Qwen2.5-32B 的性能已经超过了上一代的 Qwen2-72B,而 Qwen2.5-14B 则胜过了 Qwen2-57B-A14B。
此外,本次发布的多个模型支持最大 128K 的上下文长度,这使得它们在长文本生成和结构化数据处理(如表格理解与生成 JSON 输出)等任务中具备显著优势。
DeepSeek-AI 团队于 9 月初发布并开源了全新模型 DeepSeek-V2.5,近日在 LMSYS 组织的全球大模型竞技场(ChatBotArena)中表现出色,刷新了国产模型的多项历史纪录。
在最新公布的 ChatBotArena 排名中,DeepSeek-V2.5 位列国内大模型第一,成功超越 Yi-Large-Preview、Qwen-Plus-0828 和 GLM-4-0520 等国内最强闭源模型,并在 8 个单项能力上均领跑国内模型。这一成绩标志着 DeepSeek-V2.5 成为目前国内开源模型中的佼佼者。
在 ChatBotArena 的分项排名中,DeepSeek-V2.5 在多个维度上取得了国产模型历史最佳成绩:
- 难问题(Hard Prompt):世界第二(国内历史最佳)
- 代码(Code):世界第二(国内历史最佳)
- 数学(Math):世界第三(国内历史最佳)
(DeepSeek)