【噪声 丹尼尔卡尼曼 epub】犯罪率最多可降低24%,个中原因在于,被关押的人最有可能再次犯罪。相反,如果将风险阔值设置为使该模型在不提高犯罪率的情况

  • A+
所属分类:精英日记
       

本文选自 丹尼尔·卡尼曼新作《噪声》,扫上面码免费领电子书

犯罪率最多可降低24%,个中原因在于,被关押的人最有可能再次犯
罪。相反,如果将风险阔值设置为使该模型在不提高犯罪率的情况
下,尽可能减少被拒绝保释的人数,则研究人员计算得出,被雷押的
人数最多可再减少42%。换句话说,机器学习模型在预测哪些被告属于
犯罪高风险人和群方面,表现要比法官好得多。

人 全国相同信订的抱作横列帮册人
多,原因很有趣, 些
型遗漏的重要信息。 算法能对风险最高的被告进行归闫,就证明它有
能力找到很容易被其他模型忽略的模式。换句话说,数据中的某些模
式尽管很少见,却非常准确地预测出了高风险人群。利用算法找到罕
见但具有决定性作用的模式,让我们想起了“断腿”的概念。

研究人员还使用该算法为每位法官构建了模型,类似于我们在第9
章中描述的判断模型〈但不限于简单线性组合) 。他们将这些模型应
用于整个数据集,使团队能够模拟法官在遇到相同案件时可能做出的
判决,并比较这些判决。结果表明,保释裁定中存在相当大的系统唆
声,其中一些是水平噪声; 根据宽容程度对法官进行分类时,20%最宽
容的法官〈《即保释率最高的前20%的法官) 准予保释的概率为83%,而
20%最严厉的法官准予保释的概率为61%。法官对于哪些被告具有较高
逃脱风险的判断方式也大不相同,被一位法官视为具有低逃脱风险的
被告,可能被另一位更严厉的法官视为具有高逃脱风险 。这些结果为
模式噪声提供了清晰 的证据。 更详细的分析表明, 类多宅四的家二

总变异的67%,系统噪声占33%。笃
严历程度之间的差时 但其中大 孝 (79) 足模式只

幸好,机器学习程序的高准确性并不以牺牲法官追求的其他目
标,如种族平等为代价。 生计全仙人OA的
据,但它也可能会无意间加剧种族歧视。如果模型使用与种族信
度相关的预测因素 〈如邮政编码) ,或是用于算法训练的数据源暗含偏见,则可能会出现种族歧视。例如,如果将过去的逮捕次数作为预
测因素,而过去的逮捕次数受到种族歧视的影响,那么得到的算法也
会存在歧视问题

尽管从原则上讲,这种歧视无疑是一种风险,但在一些重要层
面,该算法所做出的决策比法官群体中存在的种族歧视要轻微。例
如,如果通过设置风险阔值使犯罪率与法官判决的犯罪率相同,则该
算法可将有色人种被判入狱的概率减少41%。在其他情况下,算法也得
出了类似的结果,即提高准确性不必以加剧种族歧视为代价。正如研
究小组所指出的: 通过训练,该算法很容易用于减少种族歧视。

另一项不同 的机作风渤 了算法如何在提高准确性的同时减少
歧视。 各 。老 (Bo Cowgill) 考察了一家大
型到技公司招胆趟储工程师的情况 考吉尔并未使用人工簿选简历的
方式来衍选可进入面试流程的人,而是基于该公司收到并评估过的超
过30万份简历,来训练机器学习算法进行利选。该算法选出的候选人
比人工衍选的候选人被录取的可能性要高14%。当候选人收到录取通知
后,算法组簿选出来的候选人,比人工组簿选出的候选人接受工作机
会的可能性要高18%。该算法还根据种族、性别和其他指标选择了一纪
更加多样化的候选人,而它更有可能选择“非传统”候选人,例如非
名校毕业生、缺乏相关工作经验以及没有推荐信的候选人。在筛选软
件工程师的简历时,人们通常倾向于选择符合这一群体所有典型特征
的人,而该算法则为每个相关预测因素赋予了适当的权重。

需要明确的是,这些例子并不能证明算法始终是公平、无偏见和
非歧视的。大家比较熟悉的一个例子是:一个用于预测求职者能和否通
过面试的算法,实际上是根据过去的晋升决策数据训练出来的,
此,这种算法必然会重蹈过去晋升决策中人类所有偏差的覆入。

构建一个使种族或性别不平等持续存在的算法,不仅是可能的,
而且十分容易做到。许多算法已做到了这一点。这些例子表明,人们

关于丹尼尔卡尼曼噪声pdf相关推荐:

丹尼尔卡尼曼噪声图片,深度思考这本书怎么样,卡尼曼理论

发表评论

:?: :razz: :sad: :evil: :!: :smile: :oops: :grin: :eek: :shock: :???: :cool: :lol: :mad: :twisted: :roll: :wink: :idea: :arrow: :neutral: :cry: :mrgreen: