8月22日,AI21实验室宣布推出Jamba 1.5开放模型家族,包括Jamba 1.5 Mini和Jamba 1.5 Large两款模型。这些模型采用创新的SSM-Transformer架构,在长文本处理、速度和质量方面表现出色,超越了同类竞争对手。
Jamba 1.5系列模型具有256K的有效上下文窗口,是目前开放模型中最长的。它们在长文本处理速度上比竞争对手快2.5倍,并在各种上下文长度下保持领先。在Arena Hard基准测试中,Jamba 1.5 Mini以46.1的得分成为同类最强开放模型,超越了Mixtral 8x22B等更大的模型。Jamba 1.5 Large则以65.4的得分超过了Llama 3.1 70B和405B。 除英语外,这些模型还支持西班牙语、法语等多种语言。它们原生支持结构化JSON输出、函数调用等功能,便于开发者使用。模型已在Hugging Face上开放下载,并将很快登陆LangChain和LlamaIndex等主流框架。 AI21实验室表示,Jamba 1.5系列模型旨在为企业提供实际价值。它们在资源效率、质量、速度和解决关键任务的能力方面都经过精心设计,以满足大型企业在实施生成式AI时最关心的需求。
这些模型目前可通过AI21 Studio、Google Cloud等多个平台使用。AI21实验室还提供私有部署和定制模型服务,以满足企业的特定需求。
|