关注并星标
从此不迷路
计算机视觉研究院
公众号ID|ComputerVisionGzq
学习群|扫码在主页获取加入方式
源代码:https://github.com/JunaedYounusKhan51/FaceMaskDetection
计算机视觉研究院专栏
作者:Edison_G
由于在人群中间人工监测口罩通常是不可行的,因此自动检测戴口罩可能是有益的。
一、前言
世界卫生组织 (WHO) 建议将戴口罩作为预防 COVID-19 传播的最有效措施之一。在许多国家,现在特别是在公共场所强制戴口罩。由于在人群中间人工监测口罩通常是不可行的,因此自动检测可能是有益的。
为了促进这一点,研究员们探索了许多用于口罩检测的深度学习模型(即VGG1、VGG19、ResNet50),并在两个基准数据集上对其进行了评估。在这种情况下,研究者还评估了迁移学习(即VGG19、在ImageNet上预训练的ResNet50)。发现虽然所有模型的性能都很好,但迁移学习模型的性能最好。迁移学习将性能提高了 0.10%—0.40%,训练时间减少30%。
最后的实验还表明,对于测试数据集来自不同分布的真实案例,这些高性能模型并不是很稳健。在没有任何微调的情况下,这些模型在Domain Adaptation设置中的性能下降了47%。
二、背景
新型冠状病毒病(COVID-19)造成了全球健康危机,夺走了370万人的生命,影响了约1.72亿人。这是一种高度传染性疾病(比流感和埃博拉病毒更具传染性),主要通过呼吸道飞沫传播。因此,建议采取一些预防措施来防止其传播,例如保持社交距离、戴口罩、清洁双手。尽管疫苗可用,但全球范围内的大规模疫苗接种尚未完成。即使接种疫苗后也可能受到影响,因为疫苗并非100%有效。虽然接种疫苗的人在感染COVID-19后不太可能出现严重并发症,但也有一些例外情况。而且,由于基因突变,病毒在不断进化。最近的菌株“Omicron”已经成为全球健康的一个重大问题。因此,预防措施仍然至关重要。事实上,世界卫生组织认为戴口罩是最有效的措施。
计算机视觉研究院提示:出入一定要记得带口罩!
一些研究要求佩戴口罩,因为他们发现这对预防COVID-19非常有益。研究发现,人多的地方最容易传播病毒。在许多国家,政府已强制要求在公共场所和公共交通工具上戴口罩。然而,由于疏忽和缺乏意识,许多人仍然不愿意戴口罩。因此,有必要定位未戴口罩的人,让他们知道并确保戴口罩。由于在人群中间或公共场所手动检测几乎不可行,因此自动检测口罩可能是唯一的方法,因此目前受到研究界的高度关注。
这个方向的大多数现有模型都受到这两个限制中的任何一个:(1) 缺乏模型探索。 评估模型或技术的数量有限;(2)缺乏使用的数据集。
他们没有在不同的数据集上评估模型。为了填补这一空白,研究者从三个不同的角度(即基线VGG、著名的VGG19和ResNet50以及迁移学习)探索了各种模型。还在这种情况下评估了Domain Adaptation的概念。特别是,研究者解决了两个研究问题。
三、研究问题
不同模型检测口罩的准确度如何?
研究者比较了不同模型,在两个不同数据集(模拟和真实)的口罩检测任务中的性能。它将帮助我们全面了解自动口罩检测的可能性和挑战。在研究中,性能最好的模型是ResNet50和迁移学习,在模拟和真实数据集中分别达到100%和99.45%的准确率。
域自适Domain Adaptatio应的概念在口罩检测中的效果如何?
通过分别使用模拟和真实图像作为源域和目标域来评估域适应,以检查模型在这种情况下从模拟到真实的可迁移性。这样做的一个动机是探索在模拟数据上训练但后来在不同(真实)数据集上部署/测试的模型的性能。
我们观察到,目前在现有的基准数据集(其中大部分是模拟的)中,缺少正确佩戴口罩的真实图像。因此,此RQ将帮助我们评估使用模拟数据在现实世界中检测错误的可行性。实验表明,在这种跨域设置中,模型性能严重下降(下降了47%)。然而,当使用真实数据对训练好的模型进行微调时,性能会迅速提高。这意味着在模拟数据集上训练的模型在没有一些微调的情况下可能无法在目标现实世界数据集上表现良好。我们相信我们的比较分析将有助于研究界在此背景下进一步探索并选择最合适的口罩检测方法。
四、数据及实验设置
口罩检测数据集概括
·
实验设置
1、Data Augmentation
# used different data augmentation techniques such as rotation (20°), smearing (0.2), flipping (horizontal & vertical),
# zooming (range 0.1) as showed in Figure 4. Our dataset images were of different sizes (e.g., 1024×1024, 128×128). For
# data augmentation we used batch size of 128 and converted
#image dimension to 128×128.
2、Models
# VGG, VGG19, ResNet50
# Transfer Learning. To evaluate transfer learning, we used pre-trained VGG19 and ResNet50 (on ImageNet). We discarded the top layer and froze the base model. Then we
# flattened the output and used a dense layer with Softmax activation.
3、Domain Adaptation
# Domain Adaptation是将在一个域(源)中训练的模型应用于不同但相似的域(目标)的能力。
# 在掩码检测的上下文中评估了Domain Adaptation,其中将模拟数据集视为源域,
# 将真实数据集视为目标域。 在模拟数据上训练了最好的模型,并在没有重新训练的情况下在真实数据上进行了测试。
# 后来,在真实数据集上对模型进行了微调,并观察了性能的变化。
4、Training Process
5、Evaluation Metrics
© The Ending
转载请联系本公众号获得授权
计算机视觉研究院学习群等你加入!
计算机视觉研究院主要涉及深度学习领域,主要致力于人脸检测、人脸识别,多目标检测、目标跟踪、图像分割等研究方向。研究院接下来会不断分享最新的论文算法新框架,我们这次改革不同点就是,我们要着重”研究“。之后我们会针对相应领域分享实践过程,让大家真正体会摆脱理论的真实场景,培养爱动手编程爱动脑思考的习惯!
扫码关注
计算机视觉研究院
公众号ID|ComputerVisionGzq
学习群|扫码在主页获取加入方式
往期推荐
NÜWA:女娲算法,多模态预训练模型,大杀四方!(附源代码下载)
实用教程详解:模型部署,用DNN模块部署YOLOv5目标检测(附源代码)
LCCL网络:相互指导博弈来提升目标检测精度(附源代码)
Poly-YOLO:更快,更精确的检测(主要解决Yolov3两大问题,附源代码)
ResNet超强变体:京东AI新开源的计算机视觉模块!(附源代码)
Double-Head:重新思考检测头,提升精度(附原论文下载)
MUCNetV2:内存瓶颈和计算负载问题一举突破?分类&检测都有较高性能(附源代码下载)
旋转角度目标检测的重要性!!!(附源论文下载)