当前位置:新闻 > 社会新闻 > 社会新闻更多页面 > 正文

预计到2030年 人工智能将为世界经济贡献15.7万亿美元

2017-09-01 07:36:31    中国经济网  参与评论()人

人工智能面对众多安全问题,对此,开发者也在努力总结与之对抗的手段。智能家居生产厂商BroadLink高级副总裁康海洋表示:“我们会将多方数据融合和统一分析,以提升数据的可信程度,同时也在尽量让整个系统变得更加透明。此外,我们还会及时销毁所有能销毁的数据,减少用户被攻击的可能性。”

伦理尚待明确

告诉人工智能何为“正确”,正在成为当务之急。如果不对其进化方向和目标形成共识,人工智能的伦理规则将无法“落地”

如果保持前行,会撞上沿途的5位行人;如果避开他们,就会撞上路边的墙,车中的两名乘客则可能有生命危险。在这种情况下,指挥自动驾驶的人工智能应该如何选择?英国伦敦玛丽女王大学高级讲师雅思密·艾登表示:“如果是人类驾驶员,大可以直接撞上行人,并表示‘是他们自己突然跳出来的’,但人工智能在道德上很难获得这么奢侈的原谅。”

这只是人工智能所处伦理困境的冰山一角。今年以来,麻省理工和哈佛大学联合推出了人工智能伦理研究计划,微软和谷歌等巨头也成立了人工智能伦理委员会,告诉人工智能何为“正确”,正在成为当务之急。《互联网进化论》一书的作者、计算机博士刘锋坦言:“尽管大方向上说,人工智能应当以造福人类为前提,但如果不对进化方向和目标形成共识,人工智能的伦理规则将无法‘落地’。”

对于人工智能来说,“伦理正确”的核心是正确的“算法”。美国一些法院使用的一个人工智能犯罪风险评估算法COMPAS,被第三方机构认为对黑人造成了系统性歧视。业界因此怀疑,小众人群有可能因为个体差异而承受“算法的歧视”。腾讯研究院研究员曹建峰表示,如果算法本身有问题,一旦将算法应用在犯罪评估、信用贷款、雇佣评估等关乎人身利益的场合,“因为它是规模化运作的,并不是仅仅针对某一个人,可能影响具有类似情况的一群人或者种族的利益。规模性是很大的”。

此外,还有来自数据的风险。以色列历史学家尤瓦尔·赫拉利表示,“人工智能技术的一个潜在结果是:促成数据集中到某一个地方,也进而导致权力的集中”。比如,大量互联网数据集中在少数几家巨头的手中,人工智能技术是否会因此遭到垄断?“AlphaGo之父”哈萨比斯就曾表示:“我提醒诸位,必须正确地使用人工智能。”他告诉记者,“人工智能技术不能仅为少数公司和少数人所使用,必须共享”。

AlphaGo超越了人类几千年来对围棋的理解,但人类并非能完全理解AlphaGo为何会如此决策。从这一点来看,人工智能像个“魔盒”,这也让透明性成为人工智能伦理中的重要组成部分。英国阿兰图灵研究所科研主管安德鲁·布莱克表示,算法可问责性的存在至关重要。“透明性规则应被作为伦理道德准则,编入算法之中,这样人们才能更为清晰地认知人工智能的社会影响,并在问题发生之时能够及时找出原因,调整策略。”(经济日报·中国经济网记者 陈 静)

相关报道:

    关闭