细思恐极:代表人类未来的AI 也许对人类充满偏见-dafa888手机版客户端,dafa888手机版下载,dafa888下载 
 

AI

在人们普遍印象中,AI既具备人类一样的“思考”能力,又因为它本质上是几套固定的算法,不像人类一样,在许多事情上可以有“商量”的余地。因此,AI在决策时,能比人类更精确、更理性、更大公无私。但事实上,AI决策同样可能存在偏见。

AI时代本质上是算法时代,越来越多的决策将由数学模型做出。在未来,依据每个人最细微的生活习惯,人们是否有资格获得贷款、应该在何处接受何种教育,甚至于身体出问题的可能性有多大、应该购买何种健康保险,这些问题都能被精确地算出。

既然说的是前沿技术,我们不妨以“人类灯塔”为例。美国的囚犯数量冠绝全球,其中,黑人又占到了很高比例。美国人相信,立法者和执法者的个人偏见,导致黑人群体在法律上受到了不公正待遇。许多人认为,应该引入机器算法,将个人想法从定罪量刑中完全去除。

这种想法带有一个隐含的前提,即算法是无偏见的。若确实如此,那么机器确实避免让美国司法系统中非常普遍不公平进一步恶化。按照这种完美设想,一家名为Northpointe的美国公司开发了一套名为“COMPAS”(英语“罗盘”的谐音)的AI风险评估系统。这套系统通过137个问题,对每个囚犯再次犯罪的风险,以及他们____的可能性和成本进行计算,输出成一个个分数,从而定下他们未来一段时间内的人生内容。

包括亚利桑那、科罗拉多、特拉华、肯塔基、路易斯安那、俄克拉何马、弗吉尼亚州、___和威斯康辛等州,都引入了这套先进的系统。当地法官在刑事判决期间获得相关分数,作为“公平”量刑的依据。

从常理来看,算法本身就是一套规则,会受到自身的束缚。执行时,每个执行对象都被按照固定的规则进行判断。理论上,方程可以将偏见从决策过程中根除;理论上,算法的存在应该带来公平性的无限增强。然而,现实并非如此,像上文那套以公正为立足点的“罗盘”系统,就在ProPublica的测试中,出现了对少数群体的偏见。

在2013-2014年,有超过7000人在佛罗里达州布劳沃德县遭到逮捕,并接受了该系统的风险评分。ProPublica获得了评分数据后,对这些犯人2年内再度犯罪的结果(算法创建者使用的基准也是这个)进行了回测。结果显示,这些分数在预测暴力犯罪方面极不可靠:系统评估可能再次犯罪的人群中,只有20%出现了“二进宫”的结果。

或许有人争辩,认为结果错误只是算法不完善或者算力不足导致的,但是,其中出现的种族差异,算法“偏见”难辞其咎。在这7000多人中,黑人被标上“可能再次犯罪”标签的数量是白人的2倍,而从结果来看,白人被告被错贴低风险标签的几率要高于黑人被告。

ProPublica认为,这类差异不能用被告以往罪行来解释,也不能从犯罪类型中得到解释。因为他们在回测中,在控制犯罪历史、年龄和性别等变量的情况下,以种族为依据的偏见更加明显地体现了出来。

事实上,算法偏见的事例并不鲜见。早在1982年,圣乔治医院医学院使用的招生评估算法就出现了种族偏见,荒诞的是,这种算法偏差依据的居然是学生名字——但凡听起来像外国名字,学生就会被拒收。

随着互联网和大数据时代的到来,算法偏见出现的频率越来越高。2011年,在同性恋在线约会应用Grindr介绍页面下,安卓商店推送了旨在发现性侵犯者的应用程序。换句话说,在安卓商店算法中,同性恋和恋童癖莫名其妙地联系上了。

而在去年,Facebook发生了著名的算法风波。他们原本推出了一种算法来删除网站上的仇恨言论,然而,其内部文件显示,该算法具有明显的“精英主义”倾向,为草根和少数族裔说的话更容易被删。

为什么会出现这种现象?归根结底,人们尝到AI给社会生活带来的显著好处,下意识地忽略其巨大隐患——算法的不透明。

既然算法是人编写的,那么在编写过程中,人的观念和思维完全有可能写入算法当中。这里说的“写入”,不单指编写者有意为这些机器大脑“灌输”某种思想,也包括他们内心存在的价值观念,让他们在筛选“正确”代码时存在偏见。除此之外,种族歧视、性别歧视,以及更具隐蔽性的“政治正确”等现实问题,也可能渗入机器学习的大数据集,被AI程序自主学会。

如果我们还依照老观念,把算法当作客观公平的事物,对潜在问题视而不见,必然会造成更大的破坏。

当然,随着AI技术在医学和法律等领域的普及,实践和理论冲突日渐增多,已经有很多人感知到了偏见的存在。但是,前文所说的算法不透明性,让大多数人无从对其提出异议,人们也多半不敢随意挑战人类社会千百年来积累的高深数学成果。

那么,如果不想让AI未来对某些特定群体举起屠刀,人类要怎么做?ProPublica认为,技术和算法的透明化是最重要的。用户和工程师需要了解AI最基础的“价值观”以及计算方法,才能做出针对性的调整。

最先付诸行动的是欧盟。他们在今年5月通过的《通用数据保护条例》(GDRP),除了隐私问题外,着重规范了AI技术的透明性。该条例要求,但凡使用算法进行自动决策的公司,都必须公布其算法决策的逻辑。为了降低存在错误和偏差的风险,GDPR甚至要求算法开发者使用“适当的数学或统计程序”,即公司需要对自动决策中出现的偏见和歧视负责。

不过,这只是权宜之计,因为大多数人不懂代码,即便技术透明化,公众也无法理解它们意味着什么,监督作用基本等同于没有。

因此,要防止AI偏见对人类社会造成破坏,最根本的是防止AI技术的滥用。在公众有足够信息获取能力和理解之前,人类应该对AI的应用划一条红线。虽然人类同样具有偏见,但最起码,我们没有机器那样的执行力。