Magic Clothing

2年前发布 1.9K 00

工具介绍:Magic Clothing是一个专注于控制性的服装驱动图像合成的项目,它是OOTDiffusion模型的一个分支版本,旨在通过服装来控制图像的生成。

收录时间:
2024-06-18

Magic Clothing简介

Magic Clothing是一个专注于控制性的服装驱动图像合成的项目,它是OOTDiffusion模型的一个分支版本,旨在通过服装来控制图像的生成。并且官方团队发布了在 768 分辨率上训练的模型权重,此版本中服装和文本提示的强度可以独立调整。以及支持与IP-Adapter-FaceID、ControlNet-Openpos模型一起使用,能够使用肖像和参考姿势图像作为附加条件。这个项目的目标是为图像合成提供更多的控制和灵活性,使得用户能够根据自己的需求创建更具个性化和创意的图像。

  • MagicClothing权重文件:https://huggingface.co/ShineChen1024/MagicClothing
  •  github:https://github.com/ShineChen1024/MagicClothing/tree/main
  • OOTDiffusion技术论文:https://arxiv.org/abs/2403.01779
  •  IP-Adapter-FaceID:https://huggingface.co/h94/IP-Adapter-FaceID
Magic Clothing

Magic Clothing的主要功能特点

  • 控制性:用户可以通过文本提示来控制图像合成中的服装细节,从而生成定制的、穿着特定服装的人物图像。
  • 高度可控:系统能够在生成过程中融合服装细节,实现高度可控和细粒度的图像输出。
  • 多模态支持:支持IP-Adapter-FaceID,允许使用面部图像作为额外条件,提高图像合成的个性化和准确性。
  • 模型更新:提供了不同分辨率的模型权重,如512和768分辨率,以及最新的1024分辨率版本,适用于VTON-HD和DressCode。
  • 可视化工具:提供了Gradio工具,用户可以通过这些工具来探索和使用Magic Clothing的功能。

ComfyUI_MagicClothing体验

ComfyUI_MagicClothing是MagicClothing虚拟试衣的非官方实现ComfyUI插件,但也是一款强大的ComfyUI插件,支持功能如下:

  • 通过提示生语成服装图像
  • IPAdapter FaceID 配合人脸检测和服装图像合成
  •  IPAdapter FaceID 配合 controlnet openpose 和服装图像合成
  • 支持上半身、下半身和全身模型

ComfyUI_MagicClothing插件安装

可以使用插件管理器搜索ComfyUI_MagicClothing安装,或者采用Git工具安装。

Git安装如下

在 ComfyUI 的 custom_nodes 目录下运行下列CLI命令

git clone https://github.com/frankchieng/ComfyUI_MagicClothing.git
pip install -r requirements.txt

模型下载

需要从Huggingface下载 cloth_segm.pth, magic_clothing_768_vitonhd_joint.safetensors(上半身模型), OMS_1024_VTHD+DressCode_200000.safetensors(下半身和全身模型)3个模型,并将它们放置在ComfyUI/custom_nodes/ComfyUI_MagicClothing/checkpoints 目录下。

同时,如果需要体验 ipadapterfaceid保持面部风格一致性迁移,那么还需要安装 ComfyUI_IPAdapter_plus 自定义节点。然后从IPAdapter FaceID 模型,并将它们放置在对应目录结构下。

另外,如果还想运行 controlnet openpose 部分,那么必须安装 comfyui_controlnet_aux 插件,以及下载 openpose 模型中的 body_pose_model.pth, facenet.pth 和 hand_pose_model.pth,并将它们放置在 custom_nodes/comfyui_controlnet_aux/ckpts/lllyasviel/Annotators目录下。

还有部分模型会在运行时根据用户选项下载(如openpose模型 body_pose_model.pth, facenet.pth 和 hand_pose_model.pth),因此需要能访问huggingface。

文件结构如下:

ComfyUI
|– models
| |– ipadapter
| | |– ip-adapter-faceid-plus_sd15.bin
| | |– ip-adapter-faceid-plusv2_sd15.bin
| | |– ip-adapter-faceid_sd15.bin
| |– loras
| | |– ip-adapter-faceid-plus_sd15_lora.safetensors
| | |– ip-adapter-faceid-plusv2_sd15_lora.safetensors
| | |– ip-adapter-faceid_sd15_lora.safetensors
|– custom_nodes
| |– ComfyUI_MagicClothing
| | |– checkpoints
| | | |– cloth_segm.pth
| | | |– magic_clothing_768_vitonhd_joint.safetensors
| | | |– OMS_1024_VTHD+DressCode_200000.safetensors

MagicClothing模型体验

01. simple workflow

Magic Clothing

02. IPAdapater FaceID workflow

Magic Clothing

03. IPAdapater FaceID chained with controlnet openpose workflow

Magic Clothing

04. full-body workflow with IPadapterFaceid

Magic Clothing

注:实践效果中对于人物面部特征保持相对弱,作者也提到很快会有人物细节更好改善版模型。目前内置模型为SD1.5模型,作者称将会尝试dreamshape8, xxmix9realistic_v40等SDXL模型。

附录

  •  github:https://github.com/ShineChen1024/MagicClothing/tree/main
  •  插件:https://github.com/frankchieng/ComfyUI_MagicClothing/tree/main
关于Magic Clothing特别声明

本站新媒派提供的Magic Clothing内容都来源于网络,不保证外部链接的准确性和完整性,同时,对于该外部链接的指向,不由新媒派实际控制,在2024年6月18日 下午12:05收录时,该网页上的内容,都属于合规合法,后期网页的内容如有出现违规,可以直接联系网站管理员进行删除,新媒派不承担任何责任。

与Magic Clothing相关工具

HoloDreamer

HoloDreamer

HoloDreamer是一款文本驱动的3D场景生成框架,通过用户的文本描述生成沉浸式且视角一致的完整3D场景。它由风格化全景生成和增强型全景重建两个核心模块组成,该框架首先生成高清晰度的全景图作为完整3D场景的整体初始化,然后利用3D高斯散射(3D-GS)技术快速重建3D场景,从而实现视角一致和完全封闭的3D场景生成。HoloDreamer在虚拟现实、游戏和影视行业中有广泛应用,为这些领域提供了新的解决方案。
EMO

EMO

EMO (Emote Portrait Alive) 是阿里巴巴集团智能计算研究院的研究团队开发的一个音频驱动型肖像视频生成框架。具体来说,EMO系统基于音频信号驱动来生成肖像视频。用户只需要提供一张参考图片和一段音频文件(例如说话、唱歌的声音),EMO就能够根据音频内容生成一个生动的视频,视频中的人物会展现出丰富的面部表情和多变的头部动作,仿佛照片中的人物正在唱你所制定的语言或歌曲。

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...