抽象的 本文介绍了一种新颖的虚拟试穿框架,称为“Wear-Any-Way”。与以往的方法不同,Wear-Any-Way 是一种可定制的解决方案。除了生成高保真结果外,我们的方法还支持用户精确操纵佩戴风格。为了实现这一目标,我们首先构建了强大的标准虚拟试穿管道,支持复杂场景下的单件/多件试穿以及模特到模特的设置。为了使其可操作,我们提出稀疏对应对齐,其中涉及基于点的控制来指导特定位置的生成。通过这种设计,Wear-Any-Way 在标准设置下获得了最先进的性能,并为定制佩戴风格提供了新颖的交互形式。例如,支持用户拖动袖子将其卷起、拖动外套将其打开、通过点击控制褶边的样式等。Wear-Any-Way让服装的表现更加自由灵活,对时尚界有着深远的影响。
以下是效果展示 通过点击进行操作 Wear-Any-Way 支持用户在服装和人物图像上分配任意数量的控制点来定制生成,为现实世界的应用带来多样化的潜力。
拖动操作 对于基于点击的控制,用户提供服装图像、人物图像和点对来定制生成。当用户拖动图像时,起点和终点将被转换为服装点和人物点。而解析出的衣服则被视为服装图像。因此,拖动可以转换为基于点击的设置。
通过自动方法进行操作 我们可以通过结合骨架图和密集姿势来计算控制点。因此,我们可以通过设置不同的超参数来控制穿着风格。
单件试穿 Wear-Any-Way 支持各种输入类型,包括商店到模特、模特到模特、商店到街道、模特到街道、街道到街道等。
多种服装试穿 Wear-Any-Way 使用户能够同时提供上衣和下衣,并一次性生成试穿结果。
|