Nvidia的研究人员推出了DoRA,这是一种更智能的方法,用于针对特定任务微调AI模型。DoRA在保持不增加推理计算成本的同时,提供了比广泛使用的LoRA方法更高的准确率。
LoRA(低秩自适应)是一种流行的技术,通过仅调整少量参数来微调大型AI语言模型的权重,从而降低计算成本。尽管如此,完全微调仍能实现更高的准确率。Nvidia的研究人员通过研究LoRA和完全微调之间的学习行为差异,发现了减少这些差异的方法。他们分析了微调过程中模型权重的变化,特别关注权重的幅度和方向分量。 研究人员发现,LoRA在调整权重时同时改变幅度和方向,而完全微调则允许更精细的调整。LoRA缺乏结合大幅度变化和小方向变化的能力。基于这些发现,Nvidia引入了DoRA(权重分解低秩自适应)。DoRA首先将预训练的权重分解为幅度和方向分量,然后分别对它们进行训练。为了加速训练,还使用LoRA对方向分量进行进一步分解。
通过分别优化幅度和方向,DoRA简化了LoRA的任务,并稳定了方向自适应的优化。这种修改使DoRA能够实现类似于完全微调的学习能力。在常识推理、视觉指令优化和图文理解等多项任务的实验中,DoRA的表现始终优于LoRA,且在推理过程中无需额外的计算成本。
DoRA与LoRA及其变体(如VeRA)兼容,并且可以应用于不同的模型架构,例如大型语言模型(LLM)和大型视觉语言模型(LVLM)。研究人员希望将来将DoRA扩展到音频等其他领域。更多信息和代码可以在DoRA项目页面上找到。
|