对人工智能监视系统的担忧,促使研究人员开发了一种针对它们的工具。近日多伦多大学教授帕勒姆·阿比拉和研究生阿维舍克·博斯发明了一种算法,可让人脸识别率降至0.5%。

有了这项“反人脸识别”技术,我们能够决定自己的脸是否会被识别吗?

反人脸识别不陌生

其实这种反人脸识别技术早在前几年就已出现。2016年11月,卡内基梅隆大学研究人员开发出一款反面部识别眼镜。这种造价0.22美元的特制眼镜可以用光滑的照片纸打印,团队称,眼镜可让摄像头前的人显示成为另一个人,在对商用级脸部识别软件的测试中,误认人脸的成功率达到100%。

2017年,麻省理工学院和日本九州大学的研究人员创建了一种叫做EOT(Expectation Over Transformation)的算法,成功骗过谷歌AI系统,让系统将一幅3D打印的海龟照片标记为步枪,将3D棒球认成浓缩咖啡,而可爱的猫咪则有时被当做鳄梨酱。

有研究人员担忧,AI对3D物品的错认,以及被设计用来欺骗机器视觉系统的对抗性图像技术的突破,让面部识别系统正面临新一轮挑战。在上述实验中,将乌龟错认成步枪正是对抗性图像的一个例子,多伦多大学教授帕勒姆·阿比拉使用的也是这种方法。

对抗训练技术受追捧

勒姆·阿比拉在最近发表的《基于约束最优化的神经网络的反面部识别系统》中介绍,他们在一个超过600张脸的行业标准库中进行了系统训练,用于测试的600张脸包含了不同种族、不同光照条件以及不同环境。

文章第一作者阿维舍克·博斯在接受媒体采访时也表示,测试的关键在于训练两个神经网络相互对立,一个创建越来越强大的面部检测系统,而另一个创建更强大的工具来破坏面部检测。

现代脸部识别软件主要依赖于深度神经网络——一种从大量信息中学习模式的人工智能技术。在被呈现过数百万张人脸之后,该类软件就能习得脸部概念,懂得如何分辨不同的脸。“这种反面部识别系统实际上就是通过生成式对抗网络去形成一个最小最优的变化,从而对现在面部识别的深度网络进行攻击。

数据堂拥有大规模面部识别数据并已经标注好情绪标签,可以满足消费场景下对消费者情绪识别与意图预测的需求。

要实际应用还欠火候

上面提的一些反面部识别系统,训练过程要求识别人脸的网络是公开的,并且攻击次数是不受限制的,而在实际中,这显然难以实现。在实际环境中,面部识别系统是一个隐蔽系统,而且也不会允许被这样反复攻击。

“反人脸识别技术的诞生实质是对于隐私的担忧。”目前,人工智能产业尚处于初级阶段,技术的发展都具有两面性,如何防止人们利用AI技术进行破坏行为是整个行业都需要思考的问题。

数据堂自制版权的系列数据集产品为“”人脸识别”这一技术路径的实现提供了强有力的支持。

2000人面部遮挡多姿态人脸识别数据集

该数据每位被采集者,分别采集在10种遮挡条件下(包括不遮挡条件)*4种光线下*5种人脸姿态,共计10*4*5=200(张)人脸数据,该套数据可应用于遮挡人脸检测及识别等计算机视觉任务。

这不仅需要立法层面的支持,也需要伦理方面的讨论。同时对人工智能人才也要进行道德伦理教育,在立法的同时,通过行业自律来规避隐私泄露的风险。

推荐内容