由于数据是组织承担的大多数任务的基础,因此保护数据免受攻击是很重要的。正是因为如此,研究人员设计技术,以使机器学习模型有效的程度,他们可以抵御这些攻击。最严峻的挑战之一是神经网络可以被攻击者以超出预期水平的方式利用。


神经网络由于其易于构建、训练和部署,被部署在各种模型中。然而,许多人不了解的是,严重依赖神经网络的人脸识别系统(FRS)继承了神经网络的弱点。这就是为什么FRS容易受到许多攻击。以下是FRS领域的组织面临的最常见的攻击。

如何改进神经网络解决人脸识别系统的弱点?

•演示攻击–这是迄今为止最明显的攻击,攻击者只需在摄像机前持有目标人的图片或视频。一个攻击者想出各种可能的方法来利用这些模型也就不足为奇了。最容易欺骗人脸识别系统的方法之一就是使用面罩。表示攻击的另一个变体是物理扰动攻击,攻击者穿着特制的东西来欺骗FRS。例如,一副眼镜。一个人很容易辨认出另一边有一个陌生人。然而,这不是FRS神经网络的情况,因为它很容易被愚弄。


•数字攻击–人脸识别系统更容易受到数字攻击,这一直是人们关注的一个领域。使数字攻击比物理攻击更阴险的是一个事实,即攻击者拥有健全的神经网络和FRS知识,有可能愚弄网络并模仿任何人。数字攻击下最恼人的攻击之一是噪声攻击,其中攻击者的图像被自定义噪声图像修改。值得注意的一点是,每个像素值最多改变1%。当一个人被测试时,他或她可以很容易地识别出看起来不同的图像,但是对于一个神经网络来说,情况并非如此。这里发生的是神经网络将其注册为完全不同的图像。接下来的事情是攻击者不被一个人工操作人员和FRS注意到。转换攻击和生成攻击也会被列入定期出现的FRS攻击列表中。在变换攻击的情况下,攻击者以欺骗FRS的方式旋转脸部或移动眼睛。在生成攻击的情况下,攻击者使用复杂的生成模型来创建与目标相似的面部结构。


如何提高神经网络的鲁棒性来解决人脸识别系统的弱点?


处理这一问题的最佳方法之一是部署机器学习健壮性。这是一个可以找到答案,当谈到减轻对手的攻击。在训练中加入对抗性的例子是另一个值得注意的想法。虽然该模型在训练数据上的准确性较低,但在部署时更适合检测和拒绝敌方攻击。此外,该模型将能够在真实世界的数据上更一致地执行,尽管它是噪声和不一致的。能再好点吗?


简言之,为了能够抵御这些漏洞,机器学习鲁棒性需要应用到更容易确保检测和防止对抗性攻击的程度。



免责声明

我来说几句

不吐不快,我来说两句
最新评论

还没有人评论哦,抢沙发吧~