加入收藏 | 设为首页 | 会员中心 | 我要投稿 应用网_阳江站长网 (https://www.0662zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 站长资讯 > 动态 > 正文

打开正经图片,却看到一张黄图,这种造假方法能同时骗过 AI 和人眼

发布时间:2020-11-09 17:04:33 所属栏目:动态 来源:量子位
导读:来源:量子位 你能看出下面两张图有什么区别吗? 它们看起来一样,都是广场风景照。只是右边的仔细一看,会发现有些 " 奇怪的点阵 "。 但在 AI 的眼里,右边的照片却是一只哈士奇。为什么? 问题就出在那些 " 奇怪的点阵 " 里,原来把点阵重新组合,就能看

如果有人把这些图像掺进自动驾驶训练数据集,那么我们用训练出来的自动驾驶系统可靠吗?在这种情况下,汽车会不会发生意外?

打开正经图片,却看到一张黄图,这种造假方法能同时骗过 AI 和人眼

当然,这种方法并非不可预防。

既然问题出在图像压缩的滤波器上,那么我们只要选择合适的滤波器就能抵御攻击。

实验表明,中值滤波和随机滤波对非自适应攻击提供了有效的防御。

打开正经图片,却看到一张黄图,这种造假方法能同时骗过 AI 和人眼

具体到代码上,如果你在使用 OpenCV,可以通过在调用 resize API 时使用 interpolation 参数来解决,而不要使用默认值。

TensorFlow 2.0 依然容易受到攻击,双线性和双三次缩放对图像缩放攻击具有鲁棒性,可将参数 antialias 设置为 true,但是此举会影响网络性能。

(编辑:应用网_阳江站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!