OOTDiffusion专注于结合服装融合和潜在扩散技术,为虚拟试穿提供可控制的解决方案。该项目基于VITON-HD数据集训练,实现了高清晰度的虚拟试穿效果。项目已经发布了相关模型,并提供了完整的安装和推理指南,帮助用户轻松部署和使用该技术。
流程
该项目支持半身替换和全身替换,替换的效果我已经试用尝试了,如果你也想试一下的话,可以在文章最后找到试用链接。
生成的效果可以说是秒杀之前市面上的所有软件,已经达到了可以商用的水准。
1.克隆存储库
git clone https://github.com/levihsu/OOTDiffusion
2.创建一个 conda 环境并安装所需的包
conda create -n ootd python==3.10
conda activate ootdpip
install torch==2.0.1 torchvision==0.15.2 torchaudio==2.0.2 numpy==1.24.4 scipy==1.10.1 scikit-image==0.21.0 opencv-python==4.7.0.72 pillow==9.4.0 diffusers==0.24.0 transformers==4.36.2 accelerate==0.26.1 matplotlib==3.7.4 tqdm==4.64.1 gradio==4.16.0 config==0.5.1 einops==0.7.0 ninja==1.10.2
推理
1.半身模型
cd OOTDiffusion/run
python run_ootd.py –model_path <model-image-path> –cloth_path <cloth-image-path> –scale 2.0 –sample 4
2.全身模型
服装类别必须配对:0=上半身:1=下半身:2=连衣裙
cd OOTDiffusion/run
python run_ootd.py –model_path <model-image-path> –cloth_path <cloth-image-path> –model_type dc –category 2 –scale 2.0 –sample 4