Detecting Cross-Modal Inconsistency to Defend Against Neural Fake News
检测跨模态不一致以防范神经性假新闻在网上大规模传播旨在误导或欺骗普通民众的虚假信息是一个重大的社会问题。图像、视频和自然语言生成模型的快速发展只会加剧这种情况,并加剧我们对有效防御机制的需求。虽然已经提出了现有的方法来防御神经假新闻,但它们通常局限于非常有限的环境,即文章只有文本和元数据,如标题和作者。在本文中,我们介绍了一项更现实、更具挑战性的任务,即防御机器生成的新闻,其中也包括图像和图像标题