5月4日,Lamini宣布已经成功筹集了2500万美元的资金,以加速其平台的发展,并帮助企业在内部培养顶尖的大模型(LLM)功能。
Lamini的平台使企业内的软件团队能够开发新的LLM功能,减少对专有数据的依赖,安全地从云VPC运行到本地环境,并通过优先考虑ROI和业务的模型评估来扩展其基础设施。这一过程不仅提升了结果的实用性,也为企业带来了超越炒作的实际价值。
Lamini的首席执行官周莎伦表示:“我们称之为专家人工智能,专为专有生态系统中的专有数据而设计,这需要一种与处理公共数据的通用人工智能完全不同的方法。” Lamini的平台旨在帮助企业充分利用其专有数据,将数据转化为新的LLM功能,并安全地部署到与供应商无关的计算选项。 此次融资由Amplify Partners领投A轮,First Round Capital领投种子轮,其他知名投资者包括Andrew Ng、Andrej Karpathy、Bernard Arnault、Pierre Lamond、Sarah Guo、Dylan Field、Lip-Bu Tan、Drew Houston、Anthony Schiller以及AMD Ventures等。这些投资者的加入,不仅为Lamini带来了资金支持,更为其带来了丰富的行业经验和资源。
Amplify Partners的普通合伙人Mike Dauber表示:“我们相信企业中的生成式人工智能有巨大的机会。Lamini是第一家认真对待企业问题并创建解决方案来帮助企业解锁人工智能的公司。在满足最严格的合规性和安全性要求的同时,Lamini的价值一直在呈指数级增长。”
自2023年4月推出以来,Lamini取得了显著的成就。LLM照相记忆评估套件指出,复杂的RAG和GPT-4仍然会产生很高的幻觉率,这种幻觉是一般LLM固有的,但对企业来说却是一个破坏性因素。Lamini通过其多节点LLM培训,深入探讨了在数千个GPU上进行培训的更深入的技术方法,使1000小时的过程缩短至1小时,从而使开发团队能够同时高效地运行和调整模型。
Lamini推理引擎上有保证的JSON输出,是当今开发人员使所有LLM推理调用100%符合所需格式的唯一方法。这避免了对解析器的需要,并使LLM的输出机器可读。参数高效微调(PEFT)展示了Lamini的生产LoRA堆栈,它可以调整数百万个适配器,使其与RAG一样高效且经济高效地进行微调。
Lamini还与AMD、Snowflake、Databricks、Nutanix、Meta、Mistral等公司合作,共同推进人工智能技术的发展。新资金将加速更深层次的技术优化的发展,并扩大团队,为企业提供大规模所需的战略支持。Lamini还计划在全球范围内扩展其GPU云基础设施,以满足新地区客户不断增长的需求。
First Round Capital的合伙人Todd Jackson表示:“许多创始人都是生成式人工智能和LLM的新手,但莎伦和格雷格不是。他们已经研究这项技术十多年了,是人工智能和高性能机器学习系统的世界级专家。这些知识结合在一起采用以客户为中心的方法来解决大型企业的问题,为他们的客户创造了巨大的优势。”
Lamini的愿景是为企业提供一个安全、灵活、高效的平台,以构建和部署专家级别的人工智能应用。通过其创新的技术和服务,Lamini正帮助企业在人工智能时代取得成功,并实现其商业目标。
|