在实践层面,机器伦理构建的具体策略有三:其一是自上而下,即在智能体中预设一套可操作的伦理规范,如自动驾驶汽车应将撞车对他人造成的伤害降到最低。其二是自下而上,即让智能体运用反向强化学习等机器学习技术研究人类相关现实和模拟场景中的行为,使其树立与人类相似的价值观并付诸行动,如让自动驾驶汽车研究人类的驾驶行为。其三是人机交互,即让智能体用自然语言解释其决策,使人类能把握其复杂的逻辑并及时纠正其中可能存在的问题。但这些策略都有其显见的困难:如何在量化和计算中准确和不走样地表达与定义伦理范畴?如何使智能体准确地理解自然语言并与人进行深度沟通?
鉴于机器伦理在实践中的困难,人工智能体的伦理嵌入不能局限于智能体,而须将人的主导作用纳入其中。可行的人工伦理智能体或道德的智能机器的构造应该包括伦理调节器、伦理评估工具、人机接口和伦理督导者等四个环节。伦理调节器就是上述机器伦理程序和算法。伦理评估工具旨在对智能体是否应该以及是否恰当地代理了相关主体的伦理决策做出评估,并对机器伦理的道德理论(如效益论、道义论等)和伦理立场(如个性化立场、多数人立场、随机性选择等)等元伦理预设做出评价和选择。人机接口旨在使人与智能体广泛借助肢体语言、结构化语言、简单指令乃至神经传导信号加强相互沟通,使机器更有效地理解人的意图,并对人的行为做出更好的预判。伦理督导者则旨在全盘考量相关伦理冲突、责任担当和权利诉求,致力于厘清由人类操控不当或智能体自主抉择不当所造成的不良后果,进而追溯相关责任,寻求修正措施。
对人类文明而言,人工智能将是一个好消息还是坏消息,最终取决于我们的伦理智慧。在中国推出新一代人工智能发展规划的今天,我们更要悉心体味孕育了巧夺天工精神和天工开物情怀的中国思想,审天人之性,度万物之势,以探求人机和谐、文明通达之道。
(作者:段伟文,系中国社会科学院哲学所研究员)