打开正经图片,却看到一张黄图,这种造假方法能同时骗过 AI 和人眼
发布时间:2020-11-09 17:04:33 所属栏目:动态 来源:量子位
导读:来源:量子位 你能看出下面两张图有什么区别吗? 它们看起来一样,都是广场风景照。只是右边的仔细一看,会发现有些 " 奇怪的点阵 "。 但在 AI 的眼里,右边的照片却是一只哈士奇。为什么? 问题就出在那些 " 奇怪的点阵 " 里,原来把点阵重新组合,就能看
如果有人把这些图像掺进自动驾驶训练数据集,那么我们用训练出来的自动驾驶系统可靠吗?在这种情况下,汽车会不会发生意外? 当然,这种方法并非不可预防。 既然问题出在图像压缩的滤波器上,那么我们只要选择合适的滤波器就能抵御攻击。 实验表明,中值滤波和随机滤波对非自适应攻击提供了有效的防御。 具体到代码上,如果你在使用 OpenCV,可以通过在调用 resize API 时使用 interpolation 参数来解决,而不要使用默认值。 TensorFlow 2.0 依然容易受到攻击,双线性和双三次缩放对图像缩放攻击具有鲁棒性,可将参数 antialias 设置为 true,但是此举会影响网络性能。 (编辑:应用网_阳江站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
站长推荐