当前位置:新闻 > 国际新闻 > 正文

韩国研发自主武器:人工智能自主掌控武器可以吗?

2018-04-12 08:41:18    光明网  参与评论()人

任何一个科研领域都存在不该去触碰的东西。例如克隆人是被主流生命科学界所禁止的。这就是科技伦理划定的禁区,也是主流价值观和人类道德的共识。

“人类在使用武器时,受自由意志和道德责任支配,而自动武器则是依据固定程序做出判断,既没有责任主体,也不会产生对杀戮的道德反思,这非常可怕。”程国斌说。

两种伦理规范缺一不可

设想一下:当一辆自动驾驶汽车在高速行驶,前方车道上突然跑出一个人,如果保持车道不打方向就有可能撞死对方保住自己,如果急打方向避开对方却有可能丢了自己的性命……这时,计算机如何决策才是合理的?

这是人工智能业界广为讨论的一个伦理问题,就如同妈妈和女友落水先救谁的问题一样,答案并不明朗。

“人工智能面对的伦理问题,其实都是传统伦理学讨论过的。只是问题形式变了,从而引起公众关注。”程国斌告诉记者,把这个案例中的驾驶者换成人类,就不会引起这么广泛的关注。

学界把人工智能伦理分为两方面,一是对机器而言,人类设计的程序,本身就包含道德规范在其中;另一方面是对人,将技术或产品应用的人群,也必须受道德约束。两者缺一不可。

周志华认为,强人工智能“不能做、不该做!”强人工智能即具有心智和意识、能根据自己的意图开展行动。霍金、马斯克等担忧的“人工智能威胁人类”,即指强人工智能。迄今为止,主流研究都不支持让机器拥有自主意识。

而对于技术使用者的伦理和法规要求,目前还显得支离破碎和虚弱无力。例如,近日支付宝因收集个人金融信息不符合最少、必须原则,且信息使用不当被罚5万元。有网友戏称,“这处罚也就是罚酒一杯”。

相关报道:

    关闭
     

    相关新闻