隐私保护,利用不被肉眼察觉的轻微图像数据扰动。

这是在一个科技公众号看到的一个介绍,于是带着浓厚的兴趣去看了看。

这是 Fawkes,针对面部识别系统的隐私保护工具
这代表着你再也不用担心在网上的照片被某些软件扒得干干净净,打包、分类,几毛钱一整份卖掉喂AI了。
这就是来自芝加哥大学的最新研究:给照片加上一点肉眼看不出来的修改,就能让你的脸成功「隐形」。
如此一来,即使你在网络上的照片被非法抓取,用这些数据训练出来的人脸模型,也无法真正成功识别你的脸。
这项研究的目的,是帮助网友们在分享自己的照片的同时,还能有效保护自己的隐私。官方点说是利用不被察觉的轻微数据扰动,去保护用户的隐私。
也就是说,这件「隐身衣」,其实是对照片进行像素级别的微小修改,以蒙蔽AI的审视。
其实,对于深度神经网络而言,一些带有特定标签的微小扰动,就能够改变模型的「认知」。

Fawkes就是这样设计的:
第一步:选择目标类型 T
指定用户 U,Fawkes的输入为用户 U 的照片集合,记为 XU。
从一个包含有许多特定分类标签的公开人脸数据集中,随机选取 K 个候选目标类型机器图像。
使用特征提取器 φ 计算每个类 k=1…K 的特征空间的中心点,记为 Ck。
而后,Fawkes会在 K 个候选集合中,选取特征表示中心点与 XU 中所有图像的特征表示差异最大的类,作为目标类型 T。
第二步:计算每张图像的「隐身衣」
随机选取一幅 T 中的图像,为 x 计算出「隐身衣」δ(x, xT) ,并按照公式进行优化。
其中 |δ(x, xT)| < ρ。
研究人员采用DDSIM(Structural Dis-Similarity Index)方法。在此基础上进行隐身衣的生成,能保证隐身后的图像与原图在视觉效果上高度一致。
实验结果表明,无论人脸识别模型被训练得多么刁钻,Fawkes都能提供95%以上有效防护率,保证用户的脸不被识别。
即使有一些不小心泄露的未遮挡照片被加入人脸识别模型的训练集,通过进一步的扩展设计,Fawkes也可以提供80%以上的防识别成功率。
在Microsoft Azure Face API、Amazon Rekognition和旷视Face Search API这几个最先进的人脸识别服务面前,Fawkes的「隐身」效果则达到了100%。

目前,Fawkes已开源,Mac、Windows和Linux都可以使用。

项目地址:https://github.com/Shawn-Shan/fawkes/
python3运行,

可使用pip安装:pip3 install fawkes

用法:fawkes -d 【图像文件保存文件夹】 -m mid

闲话不多说,详细可见论文:http://people.cs.uchicago.edu/~ravenben/publications/pdf/fawkes-usenix20.pdf

参考:https://www.theregister.com/2020/07/22/defeat_facial_recognition/

https://mp.weixin.qq.com/s?__biz=MzIzNjc1NzUzMw==&mid=2247549022&idx=1&sn=6e089a073c723efb2767d1a32126485e&chksm=e8d0b72cdfa73e3aee88db2c3e2d00068db605c53a24325bebc2ab05f23013cb699a6063bc12&mpshare=1&scene=1&srcid=0723Zvm8yzsxchru428tu51w&sharer_sharetime=1595482958880&sharer_shareid=ea0dfcacdddea2d5f6ec61d12641adbb&key=21e9f95ec34ef562a1a66598b9ee1cbd0de74fbd527d2808b6cfb35aff0dae108af47c63de74e01c126fc1584d2915a5b66c71bda7b30c564d81488051d10e7ed890080b63f45d672ad76955d05dbb0f&ascene=1&uin=MjAwMzcxNzU2Nw%3D%3D&devicetype=Windows+XP&version=62060841&lang=zh_CN&exportkey=A5L%2BNWzoXDyVllgsZEWD%2BJs%3D&pass_ticket=maXHmZYNUiNwRc52UU9FnVRK0mBOaFuR9R%2F%2FnLJv72VpDM1g%2FFcsMeNEEsBgRzQd

你可能感兴趣的:(信安工具,机器学习,人脸识别)