【实战】(以色列·希伯来大学)文本驱动的StyleGAN2图像处理(一):StyleCLIP: Text-Driven Manipulation of StyleGAN Imagery
CLIP(ContrastiveLanguage–ImagePre-training,对比语言-图像预训练)是OpenAI旗下的力作,通过从网上搜集的4亿未清洗“图像-文本对”数据,用对比学习目标完成训练。无需直接对任务进行优化,它可以用自然语言来预测最相关的“图像-文本对”,这类似于GPT-2和3的零快照功能。在本文所介绍的工作中,我们探讨如何利用对比语言—图像预训练(CLIP)模型的力量,为S