中华网

设为书签Ctrl+D将本页面保存为书签,全面了解最新资讯,方便快捷。
军事APP

人工智能时代该如何夺回我们的“不知情权”(4)

人工智能时代该如何夺回我们的“不知情权”(4)
2018-07-05 11:19:04 新浪科技

这些例子说明了识别个体不知情动机的影响,并且展示了知识和无知的问题可以有多复杂,特别是在涉及人工智能的时候。关于集体不知情在什么时候有益处,或者在道德上合理的问题,没有现成的答案。理想的做法是单独考虑每个案例,进行风险收益分析。理想情况下,鉴于争论的复杂性和后果的重要性,这一分析将公开进行,考虑各种利益相关者和专家意见,并考虑所有可能的未来结果,包括最坏的情况。

这其中涉及的问题太多了……事实上,理想做法在大多数情况下都是行不通的。那么,我们又该如何做呢?

一种方法是控制和限制机器根据已采集数据进行的推理。例如,我们可以“禁止”使用种族作为预测变量的司法算法,或者从潜在求职者的预测分析中排除性别。但是,这种方法也存在问题。

首先,限制大公司使用信息的成本太高,技术难度也很大。这需要这些公司将算法开源,同时要求大型政府机构不断对其审查。另一方面,一旦采集到大量的数据集,总是会有很多迂回的方法来推理出“禁止的知识”。假设政府宣布使用性别信息来预测学术成功是非法的,那就可能出现使用“拥有汽车类型”和“最喜欢的音乐流派”作为性别替代指标,直接进行替代指标的二级推理。有时候,尽管一家公司的意图是好的,但有关性别的推理也可能意外地嵌入到算法中。这些二级推理导致对算法的审查更加困难。一个分析中包含的变量越多,发生二级推理的可能性就越大。

麻省理工学院的研究者在网站(moralmachine.mit.edu)上根据人们自己选择的数据类型,测试他们在机器即将做出决定的情况下表现出的道德直觉。

关键词:

相关报道:

    关闭
     

    相关新闻