微软推出三款全新的Phi-3.5系列人工智能模型,这标志着该公司在AI领域的又一重大突破。新模型包括: - Phi-3.5-mini-instruct: 拥有38亿参数,适用于基础推理任务。
- Phi-3.5-MoE-instruct: 具有419亿参数的"专家混合"模型,用于更复杂的推理。
- Phi-3.5-vision-instruct: 41.5亿参数的视觉模型,可分析图像和视频。
这三款模型均支持128K上下文长度,并在多项第三方基准测试中表现出色,在某些方面甚至超越了谷歌的Gemini 1.5 Flash、Meta的Llama 3.1和OpenAI的GPT-4o等竞品。
值得注意的是,微软以MIT许可证在Hugging Face平台上开源了这些模型,允许开发者自由下载、使用和定制,无需任何限制。
Phi-3.5-mini-instruct模型虽然体积小巧,但在多语言和多轮对话任务中表现优异。Phi-3.5-MoE模型采用创新的"专家混合"架构,在代码、数学和多语言理解等方面展现出强大实力。Phi-3.5-vision-instruct模型则整合了文本和图像处理能力,适用于图像理解、文字识别和视频摘要等任务。
这三款模型的训练过程各不相同,使用了数百个高性能GPU,训练时间从6天到23天不等。训练数据包括合成数据集和经过筛选的公开数据集。
微软此次发布Phi-3.5系列模型,不仅展示了其在AI领域的持续创新能力,也为开发者提供了强大而灵活的工具,有望推动AI技术在商业和研究领域的广泛应用。
|