用AI制作,假冒名人欺骗网民的现象,张文宏事件并非个例。今年国庆期间就有人用企业家雷军的声音和头像制作了众多恶搞视频。
也有人AI制作了刘德华的声音为自己增加流量。该视频出现后,刘德华电影公司连续发布两则声明,提醒各方人士注意,避免落入伪造刘德华声音的AI语音合成技术骗局。
上海市消保委也注意到了最近日益增加的AI假冒名人的视频。
上海市消费者权益保护委员会副秘书长唐健盛:我们关注到现在这种虚拟人直播带货的情况,也是越来越多了。有不法商家通过AI手段去冒用张文宏老师的形象和声音,做的假的直播带货,这种行为我们觉得是对消费者合法权的侵害,因为它就是一个赤裸裸的欺诈消费者行为。
AI模仿他人技术成熟可轻松克隆脸和声音
现在的AI技术在克隆他人面部和声音上,到底发展到了什么程度?专家介绍,目前模仿他人的声音和脸的技术已经非常成熟,提供一张照片就能做出换脸的效果,他人的声音也能被轻易模仿。
中国网络空间安全协会人工智能安全治理专业委员会专家薛智慧:通过人工智能技术,将脸进行替换。声音需要有一个语言的模型,语言模型里边被模仿者的声音进行合成,实现音色的克隆。
技术人员现场做了一个测试,将事先录制好的视频换成记者的脸和声音。首先记者给技术人员提供了一张证件照片,不到两分钟,通过软件的渲染,视频的人脸就换成了记者的脸。