[SGDiff] A Style Guided Diffusion model for fashion synthesis
Abstract①提出一个风格引导的扩散模型(SGDiff),把图像模态与预训练的t2i模型组合起来。②提出一个数据集SG-Fashion。MethodSGDiffOverview公式含义:在给定时间点t上的输入,目标文本的语义表示,风格表示。通过扩散网络估计该时刻的噪声。输入:①文本text;②风格图像。文本条件通过扩散模型的生成风格条件通过CLIP模型的生成这两个特征在SCA模块中进行特征融合