“张文宏是不是带货了?”最近,有网友称在网络卖货视频中看到知名医生张文宏在售卖一种蛋白棒产品。不过,经常刷短视频的朋友很快就能分辨出这是AI合成的视频,并非本人。
随着人工智能技术的迅猛发展,AI换脸已经能够做到以假乱真。当AI技术被不当使用,用户该如何识破骗局?监管如何跟上技术发展?
张文宏回应“被AI带货”:已多次投诉但违规账号屡禁不止
在带货视频中,被合成的人像反复介绍一种产品,声音听起来很像张文宏本人。一些老人信以为真,不仅下了单,还呼朋引伴来购买。对此,张文宏回应称,这样的卖货账号不止一个,而且一直在变,他多次向平台投诉但屡禁不绝。
目前,用语音合成来模仿他人声音,生成视频的技术已经非常成熟,甚至仅用一张照片就能生成此类视频。
工信部信息通信经济专家委员会委员盘和林表示:“AI技术冒充名人带货、诈骗越来越多,这里的关键不在AI,而是要及时处理利用AI冒充他人的内容发布者。冒名顶替、虚假宣传、破坏名人肖像权、利用名人的公信力来牟利,这些行为会给名人带来风险,也会成为诈骗分子的温床。”
工信部反诈工作专班专家李坤介绍,在网上,耳听眼见不一定为实。“拟声”“换脸”等合成技术的一大特点是以假乱真,不法分子可以利用此类技术轻易伪装成他人,并通过快速筛选目标人群、精准制定诈骗脚本。