大数据基于AI的安全系统中的道德偏见
这个问题已经在世界各地的会议和社交聊天的讨论表中浮出水面了-“机器可以打开人类吗?”这个问题经常伴随着《终结者》等电影的场景和视觉效果,但是我们所知道的和所看到的在大数据中使用AI的原因在于,在设计具有更复杂环境的更大规模的系统时,必须考虑某些不确定性和偏差。 机器“感觉”是什么?是什么使他们的行为方式不同于插入大型机的代码?如今,艾萨克·阿西莫夫(Isaac Asimov)的三项法律在定义机器在复杂环境中的行为标准时是否仍然立于不败之地?这些问题的答案在于我们选择定义游戏规则以及机器如何应对突然变化的方式。 在人工智能研究中,道德偏见是不确定性的一个特殊区域,涉及小装饰品和杠杆,这些小装饰品和杠杆会拉动机器以有时看起来有些奇怪甚至有害的方式运行。随着无人驾驶汽车的兴起和AI驱动的生产方法逐渐占领世界,一个悬而未决的问题再次需要答案。我们如何处理这些机器? 您可能还会喜欢: AI可以自我警戒并减少偏见吗? 偏向简介 从数据角度来看,偏差和方差与测量值与实际值的接近程度有关。在这种情况下,方差是测量值彼此之间相差多少的度量,偏差是指测量值与实际值相差多少。在具有高精度的模型的高度特定的情况下,方差和偏差都将很小。 但是,这可能反映出该模型对新数据的执行效果有多差。然而,很难实现低偏差和方差,这是各地数据分析师的祸根。对于涉及简单决策而用简单的二进制计算还不够的用例,偏差尤其难以处理。 您可能会想问偏见如何进入系统。而且,如果一台机器无法在不低于人类的临界点上做出决定,那么为什么要首先使用它们呢?要回答这些问题,您需要查看在大数据领域中如何构建模型的一般方法。 首先从执行器和传感器中收集并清除数据,这些数据可为分析人员提供原始数据。这些值然后经过预处理步骤,在此将它们标准化,标准化或转换为除去尺寸和单位的形式。一旦将数据转换为合适的表格或逗号分隔格式,就将其插入到层或功能方程式网络中。如果模型使用一系列隐藏层,请放心,它们将具有激活函数,该函数将在每个步骤中引入偏差。 但是,偏差也可以通过许多收集方法的陷阱进入系统。也许数据没有针对某一组或某类输出进行平衡,也许数据不完整/错误,或者可能没有任何数据开始。 随着数据集变得越来越多且记录不完整,系统肯定有可能用一些预定义的值填补这些空白。这导致另一种假设偏见。 黑匣子难题 许多学者还认为,没有适当的上下文,数字可能不会意味着同一件事。例如,在有争议的《钟形曲线》一书中,作者关于种族群体间智商差异的说法受到了环境约束和差异概念的挑战。但是,如果一个人能够达成这样的解决方案,那么一台机器要花多长时间才能消除这种逻辑上的判断失误? 机会很小。如果机器被送入错误或错误的数据,它将输出错误的值。问题是由AI模型的构建模棱两可引起的。这些通常是黑盒模型,作为数据接收器和数据源存在,而没有解释内部内容。对于用户而言,不能质疑或质疑这种黑匣子模型如何得出结果。此外,结果差异还需要解决其他问题。 由于缺乏对黑匣子运作方式的了解,即使使用相同的输入,分析师也可能得出不同的结果。对于精度不是关键因素的值,这种变化可能不会产生太大的影响,但是数据领域却很少那么慷慨。 例如,如果AI系统无法预测高度特定的参数(例如pH值,温度或大气压),则工业制造商将蒙受损失。但是,当目标是解决诸如贷款兼容性,犯罪再犯甚至适用于大学录取等问题的答案时,AI缺乏清晰的价值将处于不利地位。但是,AI爱好者有责任从另一个角度解决这个问题。 必须解决层之间干扰的方法和规则,以解释每一行代码和系数所代表的含义。因此必须将黑匣子连根拔起并解剖,以了解是什么使机器滴答作响,这说起来容易做起来难。即使看一下最简单的神经网络AI,也足以表明此类系统的原始性。节点和层全部堆叠在一起,各个权重与其他层的权重相互作用。 对于训练有素的人来说,这看起来像是一笔宏伟的交易,但是对于理解机器却几乎没有解释。难道仅仅是由于人类和机器语言水平的差异?是否可以采用一种外行可以理解的格式来分解机器语言的逻辑? 偏见的类型 回顾数据分析中偏差的历史,由于技术不正确或负责分析的实体中预定义的偏差,可能会引入多种偏差。归因于程序员的某些倾向和兴趣,由于模型的定位错误,可能会产生错误的假设和偏见。 这是某些营销分析师在处理潜在客户时常犯的错误。收集软件可提供有关转化者和未转化者的大量数据。大多数人可能会倾向于只针对未转换的潜在客户建立模型,而不是只关注同时针对两种人群的模型。这样一来,他们最终将自己弄瞎了已成为客户的可用数据的丰富性。 困扰AI模型的另一个问题是无法正确分类或错误分类数据,最终导致分析人员陷入灾难。在生产行业中,此类错误属于Type I和Type II类别-前者是在对不属于记录的记录进行分类时,后者是在无法对属于的记录进行分类时。从生产批次的角度来看,质量控制工程师只需对产品的一小部分进行测试,即可迅速提高产品的准确性。它可以节省时间和金钱,但它可能是发生这种假设偏差的理想环境。 在图像检测软件中观察到了另一个类似的示例,其中神经网络扫描图片的损坏部分以重建逻辑形状。图像中对象方向的相似性可能会导致多个问题,这些问题可能导致模型给出令人吃惊的争议性结果。当前时代的卷积神经网络能够分解这种复杂性,但需要大量测试和训练数据才能得出合理的结果。 某些偏差是由于缺乏正确的数据(使用不必要的甚至是不必要的复杂模型)导致的。通常认为,某些模型和神经网络编程仅应在达到统计上显着数量的记录后才应用于数据集。这也意味着必须将算法设计为可重复地及时检查数据质量。 与AI对抗AI AI偏见的问题解决方案是否隐藏在AI本身内?研究人员认为,改进分析人员收集和划分信息的调整方法非常重要,并且应考虑到并非所有信息都是必需的。 话虽这么说,应该更加强调消除和消除使模型完全不适当的输入和值。数据审计是另一种可以及时检查和消除偏差的方法。与任何标准审核程序一样,此方法涉及彻底清除和检查已处理数据以及原始输入数据。审核员跟踪更改并记下可以对数据进行的改进,并确保数据对所有利益相关者具有完全的透明度。 专门的XAI模型也存在疑问,可以在适当的情况下将其放在问题表中。这些模型涉及非常详细的参数模型开发,其中记录了每个步骤和更改,从而使分析人员可以查明可能的问题并触发实例。 (编辑:应用网_阳江站长网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |