中华网

设为书签Ctrl+D将本页面保存为书签,全面了解最新资讯,方便快捷。
军事APP
当前位置:新闻 > 国际新闻 > 正文

危险程度堪比核武?“杀人机器”研发或引发灾难

危险程度堪比核武?“杀人机器”研发或引发灾难
2019-05-15 15:47:06 参考消息网

原标题:危险程度堪比核武?“杀人机器”研发或引发灾难

参考消息网5月14日报道 美国石英财经网站5月11日发表了贾斯廷·罗尔利希的题为《“第3次战争革命”是能够自己决定杀人的武器》的文章,现将原文编译如下:

自主致命性武器——批评者称之为“杀人机器人”——的出现让许多分析人士感到惊恐。在没有人类近距离控制的情况下,装备了人工智能的某些此类武器能以士兵无法企及的速度和效率选定并消灭目标。

包括美国在内的多个国家正在研发自主致命性武器,相关项目包括装备人工智能的无人坦克、无人战斗机等。

各国就此自行实施了一些准则,但专家说这些还不够。美国军方政策规定,无人武器装备作出开火决定时必须有“适当程度的”人类判断,但并未对此作出明确定义,而且允许有例外。美国也是反对在该领域进行国际监管的少数国家之一。

不过,担心爆发军备竞赛的荷兰非政府组织“和平”反战组织最新发表的报告称,要想防止最终的灾难,除了全面禁止之外别无选择。

危险程度堪比核武?“杀人机器”研发或引发灾难

资料图片:科幻电影《终结者》中的天网机器人。(图片来源于网络)

危险程度堪比核武?“杀人机器”研发或引发灾难

资料图片:未来士兵想象图。(图片来源于网络)

这种担忧不无道理。人工智能专家认为这种武器将引发“第3次战争革命”。和前两次战争革命——黑色火药和核弹——一样,此类武器系统能迅速证明其价值,让拥有它们的一方获得几乎不可超越的技术优势。

如果不加以禁止,人工智能武器可能在全世界的军队中投入使用。就像社交媒体一样,在相关公司强烈抵制——而同时技术还在飞速发展——的情况下,试图到后来再回溯性地实施监管将被证明困难重重。

正如“和平”组织所声称的,“将生死决定权交给机器或算法是极不道德的”。

问题是,我们会及时行动起来吗?对于人工智能武器,快速采取行动极为重要。

(责任编辑:葛景宏 CN081)
关键词:

相关报道:

     

    火力超坦克排!装甲列车混装重炮及导弹

    18-09-04 14:55:11装甲列车,坦克

    73年前的今天 我们胜利了!

    18-09-03 10:42:43中国人民抗日战争胜利纪念日

    刘銮雄太太甘比带孩子逛超市 3个保镖随行排场太大了

    19-05-24 18:51:11刘銮雄太太甘比带孩子逛超市

    爆笑GIF图:姑娘功夫厉害啊!

    19-05-24 16:16:39爆笑GIF图

    女儿长得很像爸爸是种怎样的体验?

    19-05-24 15:05:36女儿长得很像爸爸是种怎样的体验

    相关新闻