然而,为人工智能制定“不知情权”法规是完全不同的问题。虽然医疗数据受到严格管制,但人工智能所使用的数据往往掌握在名声不佳的盈利性科技公司手中。人工智能处理的数据类型也更广泛,因此任何相应的法律都需要对什么是“不知情权”有更深入的理解。研究故意不知情的心理将有助于设计适用于人工智能的不知情权法律。不过,令人惊讶的是,这一严谨的科学研究话题长期以来一直被忽略,或许是因为某种隐含的假设,即故意忽略信息是不理性的。
心理学家拉尔夫·赫特维格(Ralph Hertwig)和法律学者克里斯托弗·恩格尔(Christoph Engel)近期发表了一篇文章,对故意选择不知情的动机进行了细致分类。在他们识别出的动机中,有两组尤其与面对人工智能时对不知情的需求密切相关。
第一组动机围绕公正和公平展开。简而言之,知识有时会破坏判断力,而我们往往选择以故意不知情作为回应。例如,学术论文的同行评议通常是匿名的。大多数国家的保险公司在登记之前不得获取有关客户健康状况的细节;他们只能知道一般的健康风险因素。这种考虑尤其与人工智能关系密切,因为人工智能可以产生极具偏见的信息。
第二组相关的动机是情绪调节和避免遗憾。赫特维格和恩格尔写道,刻意的不知情可以帮助人们维持“珍视的信仰”,并避免“精神不适、恐惧和认知失调”。故意不知情其实非常盛行。调查中大约90%的德国人希望避免可能由于“预知诸如死亡和离婚等负面事件”而产生的负面情绪,40%到70%的人也不想知道正面事件,以帮助保持“对惊喜和悬念的积极感受”,比如不知道未出生孩子的性别。
这两组动机能帮助我们理解在人工智能面前保护不知情权的必要性。举例来说,人工智能“同志雷达”(gaydar)算法的潜在收益似乎接近于零,但是在公正性和公平性方面的潜在成本却很高。正如《经济学人》(The Economist)所说的那样,“在世界上同性恋社交不被接受或被认为非法的部分地区,这样的算法可能对安全构成严重威胁。”同样的,NtechLab目前正在开发的种族识别人工智能系统所能带来的潜在收益,与其对公正性和公平性的负面影响相比显得苍白许多。COMPAS累犯预测软件具有比人类更高的准确性,但正如Dressel和Farid所写,这“并不像我们想要的那种准确,尤其是从未来还悬而未决的被告者的角度来看”。预测个人预期寿命的算法,比如Aspire Health正在开发的算法,并不一定会让人们的情绪调节变得更容易。
清华北大人工智能 清华和北大在本科生中同步启动人工智能专业人才的培养。人工智能班是清华交叉信息研究院中的特设班级,北京大学工学院开始重点筹建“机器人工程”本科专业