当前位置:新闻 > 国际新闻 > 正文

韩国研发自主武器:人工智能自主掌控武器可以吗?

2018-04-12 08:41:18    光明网  参与评论()人

“在网络信息领域,技术走得太快,伦理却没有共识,比如数据搜集技术非常高效,但是几乎没有有效的控制和评价的手段,这就像一个小孩拿枪玩耍,谁也不知道危险会在何时以什么样的方式发生。”程国斌说。

伦理不是技术创新的绊脚石

过去,伦理对计算机科学来说似乎不太相关。“码农”写的软件,似乎不大可能造成身体的伤害、疼痛或死亡。

但是,近年来伦理问题陡增。国内的大数据杀熟舆论事件还未平息,国外就曝出Facebook的数据泄露为政治竞选服务的丑闻。技术带来的负面问题,极大地增加了公众的焦虑和不信任。

2018年新学期,哈佛、康奈尔、MIT、斯坦福等美国高校的课程表上多了一门新课程,名为人工智能伦理、数据科学伦理、技术伦理、机器人伦理等。

与此同时,谷歌、亚马逊、Facebook等越来越多的互联网和人工智能公司都开始拥抱科技伦理,甚至成立专门的伦理中心或伦理委员会,招聘人工智能政策和伦理研究员。

而我国,才刚刚开始针对理工科研究生系统化地推行科技伦理教育,更毋庸说是详细地划分不同科学领域的伦理课程。

“这是因为西方社会受宗教文化影响,始终对科技发展怀有警惕之心,对伦理问题更为敏感。”程国斌说,在我国还是对技术持简单乐观主义占主流。

2016年3月,“阿尔法狗”横扫围棋世界冠军,让人工智能名声大噪。“产业界、金融界、技术界一下子狂热起来,但是伦理和法律确实没跟上。”南京信息工程大学副教授徐军说,“技术是一把双刃剑,就看是谁在用它。”

技术发展不同于科学探索,它指向更加具体的目标。近代德国社会学家马克斯·韦伯曾提出工具理性与价值理性区分的学术概念,其核心是说技术或者工具追求的是如何高效地实现既定的目标,而价值理性的任务是考察这一目标对人类福祉和社会发展所具有的价值,两者必须统一。

“当出现伦理问题,单靠几十名学者呼吁是不够的,需要开发者、决策者以及社会各方形成共识。”徐军认为。

但是,在道德观愈加多元化的今天,形成社会共识越来越难。即使如此,专家们还是呼吁,人工智能的开发者、决策者应该更加自律;相关企业应设立伦理审查机制,以防止技术被滥用;相关高校应尽快开设人工智能伦理课程,让学生走出校门可以做到负责任地创新;同时,要设定更加严厉的法律法规红线,大幅提高违法成本。

相关报道:

    关闭
     

    相关新闻