然而,如果出现一种技术,能以无法预知的方式改变这种平衡,同时让我们在决定什么时候保持不知情的问题上变得复杂的话,又会带来什么后果?这种技术其实已经出现了,那就是人工智能。
人工智能可以利用相对较少的数据来找到模式并做出推论。例如,只需要几个Facebook上的点赞就可以预测出你的个性、种族和性别。还有一种计算机算法声称,只需根据人们的照片,就能以81%的准确率区分同性恋和异性恋男性,而区分同性恋和异性恋女性的准确率为71%。另一种名为“替代性制裁的惩罚性罪犯管理分析”(Correctional Offender Management Profiling for Alternative Sanctions,COMPAS)的算法则可以通过青少年被捕记录、家庭犯罪记录、教育、社会隔离和休闲活动等数据,来预测犯罪者再犯的可能性,准确率达到65%。
在这些例子中,结论和所用的数据可能在本质上存在着惊人的偏差(即使某些结果的有效性仍在争论中)。这使得控制我们所知道的内容十分困难,而且也没有什么法规来帮助我们保持不知道的状态:不存在受保护的“不知情权”。
于是,这就创造了一种氛围,用Facebook的早期座右铭来说,我们很容易“快速行动,破除陈规”(move fast and break things)。但是,当涉及到我们私人生活的细节时,“破除陈规”是否就是我们想要的呢?
几十年来,政府和立法者都知道“潘多拉的盒子”有时候最好还是不要打开。至少在20世纪90年代,保护个人不知情权利的法律就已经出台。例如,1997年的“欧洲人权和生物医学公约”(European Convention on Human Rights and Biomedicine)规定:“每个人都有权了解其被收集的有关健康状况的任何信息。但是,应当遵从个人不希望被告知的意愿。”类似的,1995年世界医学协会的“患者权利宣言”(Rights of the Patient)中指出:“患者有权利明确要求不被告知(医疗数据),除非是为了保护其他人的生命。”
清华北大人工智能 清华和北大在本科生中同步启动人工智能专业人才的培养。人工智能班是清华交叉信息研究院中的特设班级,北京大学工学院开始重点筹建“机器人工程”本科专业