当前位置:»资讯 AI新闻 全球AI最前线

[行业动态] 阿里通义千问开源320亿参数模型Qwen1.5-32B

WX20240407-184733@2x.png


4月7日消息,阿里通义千问开源320亿参数模型Qwen1.5-32B。以下是阿里通义千问博客发布的信息。

开源社区长期以来一直在寻求一种能在性能、效率和内存占用之间达到理想平衡的模型。尽管出现了诸如Qwen1.5-72B和DBRX这样的SOTA模型,但这些模型持续面临诸如内存消耗巨大、推理速度缓慢以及显著的微调成本等问题。当前,参数量约30B的模型往往在这方面被看好,得到很多用户的青睐。顺应这一趋势,我们推出Qwen1.5语言模型系列的最新成员:Qwen1.5-32B和Qwen1.5-32B-Chat。

过去数月中,我们精心研发了Qwen1.5-32B基础模型,旨在对标甚至超越当前最先进的30B模型所设定的性能基准。同时,我们在对齐方面取得了进展,特别是在RLHF方面,以提升Qwen1.5-32B-Chat的对话能力。

模型效果

Qwen1.5-32B 是 Qwen1.5 语言模型系列的最新成员,除了模型大小外,其在模型架构上除了GQA几乎无其他差异。GQA能让该模型在模型服务时具有更高的推理效率潜力。

以下我们将对比展示其与参数量约为30B或更大的当前最优(SOTA)模型在基础能力评估、chat评估以及多语言评估方面的性能。以下是对于基础语言模型能力的评估结果:

WX20240407-185515@2x.png

我们的32B模型在多种任务上展现出颇具竞争力的表现,涵盖MMLU、GSM8K、HumanEval以及BBH等。相较于72B参数模型,Qwen1.5-32B虽在性能上有轻微下降,但在多数任务中仍优于其他30B级别模型,如Llama2-34B和Mixtral-8x7B。

而在Chat模型的评估上,我们遵循Qwen1.5的评估方案,对它们在MT-Bench与Alpaca-Eval 2.0上的表现进行了测试。具体结果如下:

WX20240407-184757@2x.png

值得注意的是,Qwen1.5-32B-Chat的得分超过8分,且Qwen1.5-32B-Chat与Qwen1.5-72B-Chat之间的差距相对较小。这一结果表明,对于需要更高效、更经济实惠的应用解决方案的用户而言,32B模型是一个可行的选择。

我们还对Qwen1.5-32B的多语言能力进行了测试,涵盖了包括阿拉伯语、西班牙语、法语、葡萄牙语、德语、意大利语、俄语、日语、韩语、越南语、泰语和印尼语在内的12种语言,涉及考试、理解、数学及翻译等多个领域。具体结果如下所示:

WX20240407-184806@2x.png

与其他Qwen1.5模型相似,32B版本同样具备出色的多语言能力,其表现略逊于72B模型。

最后,我们关注其在长文本评估任务“大海捞针”中的表现,令人欣喜的是,该模型能够在长达32K tokens的上下文中实现了优秀的表现。

WX20240407-184819@2x.png

结语

我们发布了中等规模模型Qwen1.5-32B及其Chat模型。相较于72B模型,这些模型的内存占用大幅减少,运行速度显著提升。我们期望此次发布能帮助用户为其下游应用找到更优解决方案,以应对14B模型尤其在智能体场景下能力偏弱以及72B模型推理成本过高的问题。
      Huggingface社区https://huggingface.co/Qwen/Qwen1.5-32B

声明: 本站所有内容来源于用户上传,用来分享交流。如有资料或者图片不小心侵权,请发邮件(41835170@qq.com)告知!
分享到:
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

豫ICP备2024052610号-1 ©AI闹海