因为保持竞争力是我们唯一的资源"(图片来源
人们越来越担心 一些人工智能的运作可能会偶尔藏有意识偏见 ,譬如性别歧视或种族歧视。例如最近有一款软件用来评估犯人再次犯罪的可能性,它对黑人就双倍的严苛。 这完全取决于人工智能受到怎样的训练 ,如果它们接收的数据无懈可击,那它们的决定就很可能正确,但多数时候人的偏见已经夹在其中。 谷歌翻译里就有很明显的例子 。一位研究员在去年出版的《传媒》(Medium)杂志中指出,如果在谷歌翻译中把英文"他是位护士,她是位医生"翻译成匈牙利文再译回英文,翻译 机给出的是相反的句子:"她是位 护士,他是位医生"。 翻译机接受了一万亿网页内容的数据训练, 但它只能以寻找模式样本来运算 ,譬如它发现的医生以男性居多而护士以女性为主。 另一种可能出现 偏见的原因是数学加权(数学计算中将 参数比重加入计算称之为加权)导致的。跟人一样,人工智能也会对数据进行"加权"分析——看哪个参数更重要。某种算法可能认为邮政编号跟居民信用评分是有关系的( 美国已有这样的实例 ),这就会出现歧视少数族裔的计算结果,因为他们可能住在较贫穷的小区里。 不仅仅是种族歧视和性别歧视的问题, 还会有我们从未想到过的歧视 。诺贝尔奖得主经济学家卡内曼(Daniel Kahneman)穷其一生研究人类思维中的非理性偏见。他在2011年接受魔鬼经济学(Freakonomics)博客访问时, 很好地解释了这个问题 。他说:"本质上无论是人还是人工智能,经验法则都会造成偏见,但人工智能的经验法则未必与人的经验一样。" 机器人的时代即将到来, 并将永远改变未来的工作 ,但在它们变得更像人类之前,还需要我们守护在它们旁边。令人难以置信的是,硅谷的同事似乎在这方面做得非常之出色。 我在新加坡仅仅待了几个月时间就经 历了第一次“怕输主义”(Kiasuism) 。那是一个星期六的下午,天气炎热,我在购物中心逛了几个小时后,推着婴儿车带着两个疲惫的孩子前往地铁站回家。 车站人满为患,我想上电梯到站台, 电梯门前已经有十几个人在排队 。当电梯到达时,人们突然都奋勇上前挤进电梯,当他们最后一个人挤进去后,门"叮"的一声关上了,只留下我和孩子站在那里不知所措。 在此之前,我在新加坡还没有遇到过这种完全不顾他人的现象。当我