Weaf-Any-Way – 阿里巴巴推出的一种新颖的虚拟试衣框架

Wear-Any-Way是阿里巴巴推出的一种新颖的虚拟试衣框架。与传统的虚拟试衣方法不同,Wear-Any-Way提供了一种可定制的解决方案,允许用户精确控制试穿风格。这意味着用户不仅可以试穿衣服,还可以根据需要改变衣服的样式,例如卷起袖子或打开外套。这个框架支持多种输入类型,包括商店到模特、模特到模特、商店到街道等,使用户能够同时提供上衣和下衣,并一次性生成试穿结果。Wear-Any-Way的设计基于双U-Net架构,引入了一个稀疏对应对齐模块,使得模型可以定制,为电子商务提供了新颖的功能,并对未来虚拟试戴研究提供了启示。

Weaf-Any-Way - 阿里巴巴推出的一种新颖的虚拟试衣框架

官网入口:https://mengtingchen.github.io/wear-any-way-page/?ref

Wear-Any-Way的主要功能特点

  • 高保真度试穿效果:生成的试穿效果质量高,能够在复杂场景中进行单件或多件服装的试穿。
  • 精确操纵穿着风格:用户可以通过简单的交互操作,如点击、拖动等,精确控制衣物的穿着方式,包括袖子的卷取、外套的开襟大小甚至tuck的款式。
  • 支持多种输入类型:包括商店到模特、模特到模特、商店到街道等,使用户能够在不同的场景下试穿服装。
  • 稀疏对应对齐:通过基于点的控制来指导特定位置的生成,实现精确的穿戴方式控制。
  • 交互式体验:提供了一种新的交互形式,使用户可以自由灵活地表达着装风格。

Weaf-Any-Way - 阿里巴巴推出的一种新颖的虚拟试衣框架

Wear-Any-Way是否支持多种服装类型?

Wear-Any-Way支持多种服装类型。它不仅支持单件服装的试穿,还支持多件服装的搭配试穿,包括上衣和下衣。此外,Wear-Any-Way能够处理多种输入类型,如平铺图到模特、模特图到模特、平铺图到街拍、模特图到街拍、街拍到街拍等。这意味着无论输入图像是什么形式,或目标模特图的背景姿态如何复杂,Wear-Any-Way都能提供优质的生成结果。这使得Wear-Any-Way成为一个非常灵活和强大的虚拟试衣解决方案,适用于各种不同的时尚场景和需求。

Weaf-Any-Way - 阿里巴巴推出的一种新颖的虚拟试衣框架

Wear-Any-Way是如何工作的?

  • 稀疏对应对齐:通过控制点对引导特定部位的生成,实现对上身状态的精准控制。用户可以通过操作控制点来调整服装的穿着方式,如袖了的挽起或外套的开合。
  • 双分支扩散模型:Wear-Any-Wav使用一个主分支和一个参考分支的扩散模型。主分支负责生成图像,而参考分支则提取服装的细粒度特征,以保证服装细节的保真度。
  • CUP图像编码器:用于替换文本嵌入,保证服装的整体颜色和大致纹理,同时结合Reerence U-Net来提取服装的细节特征。
  • 人体姿势图:作为额外的控制,提高生成效果的准确性。通过小型卷积网络提取姿势图的特征,并将其添加到主U-Net的潜在噪声中。
  • 训练策略:包括条件drop、零初始化和点加权损失等优化策略,提高模型对对应关系的学习效率和生成流程的可控性。
AI电商工具

ViGen AI - 使用 AI 创建高质量的 产品照片

2024-6-8 10:44:54

AI电商工具

IFo to - AI虚拟模特及服装试穿/提升您的电子商务

2024-6-8 14:09:43