加入收藏 | 设为首页 | 会员中心 | 我要投稿 应用网_阳江站长网 (https://www.0662zz.com/)- 科技、建站、经验、云计算、5G、大数据,站长网!
当前位置: 首页 > 综合聚焦 > 人物访谈 > 人物 > 正文

谷歌发布TensorFlow隐私测试模块

发布时间:2020-09-25 11:43:22 所属栏目:人物 来源:站长网
导读:谷歌本周发布了一个工具集附件,允许开发人员使用机器学习模型更好地控制私有数据的泄漏。 TensorFlow隐私模块采用了一种更新的方法来测试海量数据集中的漏洞,该数据集中包含用于医疗,面部识别和监视等目的的信息。 Google于一年前建立了TensorFlow隐私

谷歌本周发布了一个工具集附件,允许开发人员使用机器学习模型更好地控制私有数据的泄漏。

TensorFlow隐私模块采用了一种更新的方法来测试海量数据集中的漏洞,该数据集中包含用于医疗,面部识别和监视等目的的信息。
 谷歌发布TensorFlow隐私测试模块

Google于一年前建立了TensorFlow隐私库,以帮助开发人员在机器学习项目中实现更高的准确性,同时降低损害数据库中所包含主题的个人数据的风险。谷歌当时表示:“现代机器学习正越来越多地用于创建令人惊叹的新技术和用户体验,其中许多涉及培训机器,以负责任地从敏感数据(例如个人照片或电子邮件)中学习。我们打算将TensorFlow Privacy开发为同类最佳的技术中心,用于训练具有强大隐私保护功能的机器学习模型。”

在2019年发布时,TensorFlow Privacy依靠一种称为差异隐私的概念,在该概念中,数据集内的组模式在公共范围内共享,而屏蔽了构成数据集的个人的链接。在深度学习应用程序中,开发人员通常旨在对通用模式进行编码,而不是帮助识别参与者并威胁匿名的特定细节。

实现此目的的一种方法是引入有限的“噪声”,以帮助保护用户的身份。然而,这种噪声具有降低精度的风险。

Google在本周宣布的TensorFlow模块中采用了一种新方法。TensorFlow Privacy应用名为“成员推断攻击”的测试,可以建立一个分数,揭示模型对泄露信息的脆弱程度。
 谷歌发布TensorFlow隐私测试模块

谷歌在其TensorFlow博客上表示:“具有成本效益的成员推断攻击可以预测在培训期间是否使用了特定的数据。”“如果攻击者能够进行高精度的预测,那么他们很可能会成功地弄清楚训练集中是否使用了数据。成员推断攻击的最大优点是易于执行且不会需要任何再培训。”

谷歌说:“这些测试最终可以帮助开发者社区确定更多结合了隐私设计原则和数据处理选择的架构。”

Google认为这是“健壮的隐私测试套件”的起点,由于其易用性,各种技能水平的机器学习开发人员都可以使用它。
 谷歌发布TensorFlow隐私测试模块

随着越来越多的机构依赖于需要大量数据的机器学习项目,对隐私的关注也越来越高。去年,由于在出版之前未征得受试者的许可,微软被迫从其全球分布的MS Celeb面部识别培训计划中删除了超过1000万张图像。越来越多的人担心胸部X光片可能会暴露个人信息,因此Google匆匆放弃了与Ascension的健康数据共享项目。

苹果和谷歌对围绕数以百万计的AI代理(例如Siri和Google Assistant)的用户使用弱保护隐私的行为提出了批评,据报道,人们在未经授权的情况下存储和访问了来自人手机及其房屋的录音。

(编辑:应用网_阳江站长网)

【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容!

    推荐文章
      热点阅读