人工智能企业Cohere Inc.宣布,其最新Aya 23系列大型语言模型(LLM)正式开源,Aya 23系列能够理解并处理23种不同语言,为全球技术社区带来前所未有的语言支持。
Cohere Inc.,作为OpenAI的强劲对手,已获得包括Nvidia Corp.和Oracle Corp.在内的投资者超过4亿美元的资金支持。该公司专注于为企业提供优化的LLM解决方案,并推出了Embed神经网络,旨在将数据转化为更易于语言模型解析的数学结构。
Aya 23系列包含两种不同参数规模的算法:一种是80亿参数版本,专为寻求响应质量和性能平衡的用例设计;另一种则是具有350亿参数的更高级版本,旨在满足开发人员的高级需求。Aya-23-35B,作为系列中的佼佼者,基于去年推出的Command R模型,该模型支持最多128,000个标记的提示,并具备内置RAG功能,能够自动执行外部应用程序中的任务。 Aya-23-35B采用了仅解码器的Transformer架构,通过分析单词的上下文来确定其含义,相较于早期神经网络,能够生成更准确的输出。Cohere的技术创新,如分组查询注意和旋转位置嵌入技术,进一步优化了模型对用户提示的理解和文本处理能力。 Cohere利用今年早些时候开源的多语言训练数据集Aya对Aya 23进行了训练,该数据集涵盖了114种语言的5.13亿个LLM提示和答案,由约3,000名贡献者共同开发。此外,Cohere还发布了Aya-101,一款能够理解101种语言的LLM,进一步扩展了AI技术的语言覆盖范围。
|