原创:砺道智库 玉明

据大众新闻网9月13日报道,皮尤(PEW)研究中心调查发现,大多数美国人认为算法是不公平的。当被问及计算机程序是否总是反映设计师的偏见时,58%的受访者表示认同。
但民意调查本身是否有偏见?
详情
在我们周围,算法在不知不觉中起着作用。他们正在推荐音乐和浮出新闻,发现癌症肿瘤,并使自动驾驶汽车成为现实。但是人们相信他们吗?
对任何特定技术缺乏信任阻碍了它的接受和使用。一方面,正当的不信任危险的技术是一件好事。没有人反对消除不良算法的使用,这些算法会产生不良后果,比如向病人提供辐射过量的therac-25软件,或导致美国宇航局失去其火星气候轨道器的不正确的单位计算。另一方面,人们对疫苗等安全技术的非理性恐惧本身也可能是危险的。不信任科技的人,不但会个人错失好处,而且拒绝参与,也会对其他人产生负面影响,对社会造成整体的负面影响。
因此,区分理性恐惧和非理性恐惧是很重要的,而不要对后者做出贡献,尤其是在你能够影响公众舆论的情况下。不幸的是,这个特别的皮尤民意测验,或者至少是报道结果的方式,已经把水弄混了。这项调查向受访者询问了算法做出决策的四种不同场景:计算个人财务评分、评估假释决定的刑事风险、筛选求职者简历以及分析求职面试。主要图表的标题总结了它的发现:"大多数美国人认为计算机程序总是反映人类的偏见。"
这种说法的问题在于,它错误地将算法的一般概念与特定类型的算法的概念等同起来。在所述场景中使用的算法是机器学习的,这意味着它们本质上是黑匣子,在内部将它们的逻辑表示为一组没有明显意义的数字。这些机器学习算法的一个问题是,它们实际上是不可读的,人类无法理解它们。
相比之下,人工创建的算法是可读的;它们是以一种其他人可以理解的语言给出的。这包括用自然语言给出的描述,如菜谱、驾驶说明、游戏规则、装配家具的说明等,以及可由机器执行的编程语言编写的程序。
这两种算法在可读性和可理解性方面的差异是判断算法可信度的关键。不是人类创造的算法总是正确的。事实恰恰相反:由于人类是容易出错的,他们的产品也是如此,算法和软件通常都因为包含错误而臭名昭著。但是,可读性和不可读性算法之间的一个关键区别是,前者可以得到有效的纠正,而后者则不可能这样做。
如果菜太咸,你可以在菜谱中找到加盐的地方,减少盐的用量。当导航把你带到错误的地方时,很容易识别出不正确的转向并修正错误。对于不可读的算法来说,情况就大不相同了。当我们观察到一个不正确的行为时,我们无法识别算法描述中负责并可以修复的特定位置。机器学习算法的黑匣子特性有效地防止了这一点。改变机器学习算法错误行为的唯一方法是用新的数据对其进行再训练,这可能会引入其他的偏见。
数据中的偏差是算法的合理关注,但只对那些基于不良数据的算法来说是合理的。在讨论算法时,特别是在分配指责和发出警报时,我们应该小心地区分可读性和不可读性(即机器学习)算法。
回到皮尤的调查中,我们可以注意到,它实际上也是一种算法,一种以不同的人的答案作为输入的算法。要明确的是,所采用的方法没有问题,人们被问及的情况是重要的,但报告结果的方式是误导的,可以说是不负责任的。具有讽刺意味的是,它在选择示例场景时存在偏见,因此它就是它所谴责的现象的一个例子。幸运的是,由于皮尤民意测验是人类创造的,我们可以找出缺陷并加以纠正。一个简单的解决办法是简单地更改标题,并报告人们不信任机器学习的算法。另一种可能是给出一些非机器学习的算法示例,并结合人们的研究成果。
为了更准确地了解人们对算法的态度,也为了避免产生不必要的厌恶和错误的恐慌,任何判断算法的人都应该区分人类创造的算法和机器学习的结果。民意调查人员、记者和其他参与衡量和影响公众舆论的人都将从更好地理解算法的本质中受益。接受民意调查的人也是如此。
的确,算法可能存在缺陷,但民意调查也是如此。让我们尽量避免两者的偏见。