AI交流(进群备注:ViViD)

ViViD是一个基于扩散模型的视频虚拟试穿技术项目,由中国科学技术大学和阿里巴巴集团联合开发。该项目旨在通过合成视频让消费者看到衣物穿在自己身上的真实效果,解决了传统基于图像的方法在视频中导致的时间不一致性问题。ViViD生成高质量的视频,保留了衣物的细节和质感,并构建了一个高分辨率、种类丰富的数据集,显著提升了模型的表现。项目支持多种服装类型,包括上身、下身和连衣裙,能够生成高分辨率的试穿视频,并具有较快的处理速度,适用于实时或近实时的应用场景。
ViViD的特点:
- 1. 基于扩散模型实现高质量和一致性的试穿视频
- 2. 解决了传统方法在视频中的时间不一致性问题
- 3. 支持多种服装类型(上身、下身、连衣裙)
- 4. 生成高分辨率的试穿视频
- 5. 较快的处理速度,适用于实时或近实时的应用场景
- 6. 构建了高分辨率、种类丰富的数据集
ViViD的功能:
- 1. 通过命令行运行示例配置文件进行试穿视频生成
- 2. 使用提供的工具提取agnostic和agnostic_mask视频
- 3. 使用SAM或其他检测工具获取衣物掩码
- 4. 通过vid2densepose工具生成Densepose视频
- 5. 自定义配置文件进行特定需求的试穿视频生成
相关导航
暂无评论...