【噪声书籍】原则上,我们应该能够设计出一种不考虑种族或性别的算法,实际上这也完全可以做到。但有一个更具挑战性且备受关注的问题

  • A+
所属分类:精英日记
       

本文选自 丹尼尔·卡尼曼新作《噪声》,扫上面码免费领电子书

原则上,我们应该能够设计出一种不考虑种族或性别的算法,实
际上这也完全可以做到。但有一个更具挑战性且备受关注的问题
就是即使一个算法并不直接使用性别或种族作为预测因素,也可能会
产生歧视,进而导致偏差。

我们说过,算法存在偏差有两个主要原因。首先,无论我们是否
有意设计,算法都可能使用与种族或性别高度相关的预测因素。例
如,身高和体重与性别相关,人们成长和居住的地区与种族相关。

其次,不同的数据来源可能导致歧视。如果一个算法是基于存在
偏差的数据集训练所得,那么它就会产生偏差。例如,用来预测犯罪
的“预测性警务”算法,其目的是改善警力的配置。如果现有的犯罪
数据反映了某些区域的警力过度部署,或对某些类型犯罪的报案量相
对较高,那么由此产生的算法将加剧这种歧视或使其水久化。只要原
有的训练数据有偏差,就有可能有意或无意地设计出一种存在歧视的
算法。 ae
样存在偏差。事3 能更糟, 由于消除了品
声,它们可能比人美的判断人 更稳定的偏差。

对于许多人来说,要考虑的一个关键的现实因素是:一种算法是
否会对相同的群体产生不同的影响。完竟如何测试这种不同的影响
以及如何确定算法中的歧视、偏差或公平性具体包含哪些因素,这些
都是异常复杂难解的问题,也超出了本书的范围

然而,我们之所以提出这个问题,是因为相对于人类判断,算法
还是具有独特的优势的。对于新手而言,我们建议仔细对算法进行评
估,以确保其中没有输入不被法律许可的变量,并检测是否存在令人
反感的歧视。要让人类个体接受同样的审查非常困难,因为他们的判
断往往是不透明的。人们有时会无意中以一种外部观察者〈包括法律
制度) 无法轻易看穿的方式表现出歧视。因此,在某些方面,算法比
人类更透明。毫无疑问,我们需要关注无噪声但有偏差的算法的成本,就像
我们需要考虑无噪声但有偏差的规则的成本一样。关键问题是,我们
是否可以设计一种在多种重要指标上的表现都优于真实世界中的人类
判断的算法,它更准确、噪声更少、没有此视、非常公正。大量证据
表明,在人类选出的多个判定标准组合方面,算法的表现都可以比人
类更好。请注意,我们说的是可以,而不是一定。例如,正如第10章
所述,在保释决策方面,算法可能比人类法官更准确,也更少产生种
族歧视。同样,简历筛选算法可以比人类简历筛选者挑选出更好以及
更多样化的人才。

基于这些例子和更多其他的例子,我们可以自然而然地得出一个
结论: 在充满不确定性的世界中,尽管预测性算法不太可能做到完
美,但与通常充满噪声和偏差的人类判断相比,算法远没有那么不完
美。算法的优势在于有效性〈好的算法几乎总是可以做出更好的预
测》和更少的歧视〈好的算法比人类判断的偏差更小) 。如果算法比
人类专家更少犯错,而我们直觉上还是偏爱人类判断,这时候就应该
仔细审视一下自己对直觉的执念了。

我们的总体性结论很简单,并且可以延伸至算法之外的主题。确
实,减少噪声的策略可能对应高昂 的成本,但是在很多情况下,高昂
的成本只是一个借D ,而不是忍受不公平和喉声的充分理由。当然,
减少噪声的努力本身也可能产生误差,并以偏差的形式表现出来。如
果是这样,我们就面临一个很严重的问题,但解决方案不应该是放弃
减少噪声的努力,而应该是提出更好的方案。

关于思考快与慢主要内容介绍相关推荐:

思考快与慢,思考快与慢目录,丹尼尔卡尼曼名言幸福

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: