新西兰恐怖袭击事件还在持续发酵中。由于枪手在社交媒体上进行了“恐怖直播”,新西兰总理阿德恩19日在议会表示,应关注社交媒体在此事中的角色。这凸显出近年来蓬勃兴起的网络直播给网络监管带来的新挑战。
新型媒体每次兴起,在给社会带来好处的同时,也可能被用于传播不良内容。比如在2011年的伦敦骚乱中,社交媒体被骚乱分子用于互通信息和策划攻击;近两年网络直播快速发展,暴力、色情、低俗等内容也成为了一些直播平台上的毒瘤。
韩国2013年的电影《恐怖直播》,还只是虚构了一个恐怖分子利用传统广电媒体的故事,而新西兰15日枪击事件在社交媒体“脸书”上的“恐怖直播”,在17分钟后才被制止,说明了快速变化的媒体生态下网络监管所面临的严峻挑战。
挑战之一在技术方面。社交媒体上的用户生成内容是海量的,此次“恐怖直播”相关视频被大量复制和转发。“脸书”表示,在袭击事件后24小时内,已经删除了150万个相关视频。一些被上传到视频网站的视频已经过修改,现有系统无法自动识别出视频是否包含恐怖内容。
海量视频只能依赖机器识别,而与识别文字与图片相比,让机器判断视频内容确实要困难得多。目前一些人工智能技术已经能够“看懂”某些视频内容,所缺的还是相关的训练和实际应用。
新西兰广告主协会等机构在18日发表的一份声明中质问:“如果网站所有者将广告推送给目标受众的时间可以微秒计算,为什么同样的技术不能用于阻止此类内容直播?”
这个问题指向了另外一大挑战,那就是有关各方的意愿。社交媒体网站作为企业,往往优先将新技术应用到广告这种产生收益的领域,而非审核内容等具有公益性的方面。