大数据文摘授权编译自纽约时报
编译:DOnFJ、云舟
算法时代,似乎一切都可以有新的组织方式:有的算法能告诉我们读什么书、跟谁约会,甚至告诉警察应该逮捕哪个人。
一位名叫Hannah Fry的美女数学家,曾经在TED用数学论证了《数学告诉你,完美伴侣如何选择》,在她的演讲中,数学可以为情感问题提供一种有价值的全新视角:我们找到真爱的机率是多大?白头偕老的机率又有几成?网络交友的真相是什么?什么时候该结婚?如何避免婚姻破裂?
最近,这位英国数学家在新作品《Hello World: Being Human in the Age of Algorithms(Hello World:在算法的时代里做个人类)》”一书中,带我们进入了算法的世界,并且抛给我们一个问题:我们是不是在逐渐失去人性?
国家地理杂志的童鞋在其纽约签售的时候对其进行了一次深入采访。
过程中,Fry谈到了很多业内的大事件,比如为什么IBM的深蓝(Deep Blue)下棋击败Gary Kasparov会是一个划时代的标志,司法系统的算法自带的种族偏见,以及为什么2016年的选举应该是民主的一记警钟这些问题。
Q:在这本书的开篇你介绍了IBM的深蓝在1997年击败象棋大师Gary Kasparov的故事。为什么你会觉得这是个大事件呢?
A:深蓝赢了Gary Kasparov确实是个里程碑式的事件。当时Gary是世界上最伟大的国际象棋选手。我跟很多国际象棋大师都聊过他,所有人都对他在象棋领域龙卷风一样的统治力大加评论,只要他走进棋室,其他人都会吓得贴着墙根站。
IBM设计了一台会下棋的机器,在那个时代,很多人都想做出这么个东西来,但都觉得这好像这超出了计算机的能力范围,因为当时大家都还觉得计算机能对数据做个排序就很好了,能放个电影就觉得很好了,还要什么自行车。所以当深蓝获胜的时候,所有观众都很愣了,徐徐起立,重新思考计算机到底能做什么,还有人类到底有什么特别的能力。
Kasparov输了,其实并不是因为机器在下棋方面特别厉害。懂棋的大多数人都觉得那场比赛里Kasparov下的比深蓝更好,他输了的真正原因是他自乱阵脚。当他发现这台机器还行的时候,便开始猜测这台机器到底有多强,胡思乱想就让他心神不宁,最终导致了比赛的失利。
1997年的这个故事带来的寓意在今天照样适用。我们的社会正在伴随着飞速的科技进步,特别是人工智能机器学习领域。那么问题来了,我们应该多信任这些机器,我们应该给它们多大的权力,以及如果信任错了,未来将会带来什么样的灾难。
Q:剑桥分析公司(Cambridge Analytica)和Facebook今年发布了一个消息。美国学者Kathleen Hall Jamieson说他们和俄国人一起控制了特朗普的选举,你对此怎么看?
A:科技公司早就知道用户的数据是个大宝藏,能从里面获取无限的利益。如果能够了解客户,这些科技公司就能估计出这个用户要做什么,从而巧妙地操控他。这种事情在超市里面已经应用很多年了,但是Facebook能接触到的不只是购物习惯、购物车这么简单的数据。在它的数据库里我们一丝不挂,它知道我们的身份、我们喜欢什么,甚至是我们说话的方式。不论谁能接触到这个数据,都是不得了的大事情!
剑桥科技公司所做的是更往前走了一步,它找到了我们每个人的“类型”,了解我们害怕什么,我们恐惧什么,我们喜欢什么,并且据此为我们推送个性化的广告,并试图通过广告来操控我们。很抽象?不理解?那举个栗子:美国不禁枪大家都知道,而且步枪协会很强势,为了能在选举中获取更多的支持不被解散,他们瞄上了单身母亲群体手里的选票。单身母亲群体从本质上来说有些神经过敏,可能潜在一种不安全感。
步枪协会便专门为单身母亲推送那些有点让他们害怕的广告,比如先说大半夜有人跑进了你们家,而我可以提供给你保护房子的服务等。
当然,这些广告最后对于选举的结果有没有影响很难说,因为这些大型事件往往都是多方面共同促使的。但是当时大选那么紧凑,特朗普在一些洲里以几千票获胜,我觉得这也是有可能的。通过算法操控民主确实是一个值得担心的事儿,但我们还是要关心一下这些算法现在到底有什么能力,到底能不能潜移默化的操控民主。
现在新闻中有很多无人驾驶的新闻。自动驾驶的一个挑战是怎么让车子不止观察路况正常行驶,而是像人类一样感知周围,并且做出“富有同情心”的决定。你觉得自动驾驶有可能实现这个目标吗?
技术上来说没问题。但是这个问题其实涉及到伦理学上一个难题,叫“电车难题(trolley problem)”。这个难题大概的意思是说无人驾驶车正在往前跑,突然前面发现一辆大货车正在卸货呢,眼瞅着就要撞上。这时候你有两个选择,要不就直接往前走,货车司机就被撞上了,要不就打方向盘,把旁边的行人卷进去。
这完全是个伦理道德问题。这种问题的头疼之处就在于它并没有正确的答案,也没有简单的逻辑来说孰对孰错。所以我觉得我们每个人对于自动驾驶的这种伦理道德问题都没有统一的答案。
Q:现在一些算法被广泛应用到了司法系统的决策里,这对于很多读者(包括我)来说都很惊讶。想问一下你,机器学习算法能帮助修正人类的偏差吗?
A:其实算法已经在法庭上用了很久了,最早可以追溯到20世纪30年代。当时的那些算法是想预测一个罪犯是否还会继续犯罪。不论喜不喜欢、愿不愿意,法官必须要给法庭上的罪犯下个定义,预测他被释放之后会不会再犯罪。而且确实有的算法就是比人的预测更准确。
2017年的时候,Propublica.com的调查记者发布了一个重大的新闻报道。报道中说他们试用了一种算法,并且发现算法有种族主义。他们表示,黑人被告被误分类为犯罪的风险要高于白人。
医学领域现在也逐渐应用了机器学习算法,能不能跟我们讨论一些算法和医学伦理方面的案例。
先说个算法在医学领域正面的例子,癌症诊断。诊断不是开处方,没有给算法过多的权利,它就是看一些医学图像,然后判断这个图片里面是否隐藏着微小的肿瘤组织。这个算法很成功。
还有别的诊断中的算法例子。比如在英国曝光率很高的一个app,叫Babylon Health,它能帮助国家健康服务组织(National Health Service)简化诊断过程。用户只要登录后打开聊天窗口,然后算法就能根据你的病情返回一些建议和信息,然后把你的询问内容过滤一下发送给医护人员。
这听起来有点科幻,因为不只是西方的发达国家想要这样便宜和方便的服务,很多发展中国家更需要它们。但是有一个小问题,就是这些技术可能没有他们宣称的那么好。它还是会犯很多错误。比如有一次有个人打开Babylon的聊天框说,他的肘部受伤了,结果莫名其妙的算法就诊断说他生殖器周围发红充血(redness around the genitals)。哈哈,这个算法也真是拔牙伤到前列腺了。所以网上有着各种各样的段子,调侃这些人工机器人是怎么闹笑话和开车的。
事实上,世界上最隐私的数据就是你的医疗数据了,特别是DNA。所有的算法都要大量的数据才能工作。但问题是谁有你的医疗数据,即便有了数据,又有哪个人愿意让自己这么隐私的数据暴露出去?就现在而言,我们还不能去除隐私问题所导致的恶果,也未能妥善保护每个人的隐私。
除了这些好的例子,你的书里面还有很多不好的、带来伤害的例子~来跟我们分享一些吧。
当给算法的权力太大时就会发生伤害。我们回到法庭上算法的例子,这些算法有些歧视和偏见,最终会导致犯下错误。一个例子是一位名叫Christopher Drew Brooks的年轻人。他来自弗吉尼亚州,19岁,是个帅小伙,他被法庭判定强奸一名14岁的女孩。但事实上他们是自愿的,没有强迫。不过尽管如此,由于女方未成年,所以小哥被定罪。在他的审判期间,法庭用算法评估了他再犯的可能性。由于他只有19岁(年轻气盛),并且已经犯下了性犯罪,因此算法的结果是:他很有可能再次犯罪,并且建议给他18个月监禁。
从这个例子里我们看出来,这个算法很不合逻辑。年龄因素对算法有很大的影响。如果Christopher Drew Brooks已经36岁了,在这种情况下他比受害者大了22岁,那么从人类的角度来看这种行为会更加恶劣。
但是,算法会认为他再犯的风险很低,从而会让他避免牢狱之灾。大家可能希望看到法官觉得这算法有问题,决策明显不对,从而不听从它的意见而是靠着人类的直觉修正判决。但是很可惜,这种情况并没有发生。如此看来,这位小哥的例子更加印证了我们的说法。这就是问题所在,算法会犯错,并且会产生灾难性的错误。如果人类没有对其进行监督和最后的把关,而是给了它绝对的权利,麻烦将接踵而至。
Q:你在本书的结尾写道:“在算法的时代里,人类从未如此的重要”。向我们来解释一下这句话和我们可能面临的问题吧。
A:其实,这不是一本关于算法的书,这是一本关于人类的书。这是关于我们怎么去融入未来,技术如何改变我们聊天的方式、民主、医疗、警务和正义的书。在算法的时代,一切都在变化,这本书中讲述的是我们如何控制自己的未来,也是一本决定我们应该放弃哪些权力的书。它告诉我们如何让人类不被抛弃。
书中讨论的不是人和机器的关系,更多的是关于人与机器的合作,接受彼此之间的缺点。人类有局限,机器也会犯错误,那这种关系如何延续,如何发展,如何扬长避短共同携手进入并引领一个新的时代,才是这本书的内核。
相关报道:
https://www.nationalgeographic.co.uk/science-and-technology/2018/11/computers-tell-us-who-date-and-who-jail-right
0
推荐