AI已成为过去一年的网络热点,伴随其广泛应用,AI诈骗现象日益引起关注,尤其是运用AI换脸技术实施的诈骗案件屡见报端。近期,香港警方通报一起案例:某跨国公司香港分公司财务人员在一场内部视频会议中被骗走近2亿港元,除受害人本人外,其余“参会同事”均为AI换脸技术伪装。类似事件在2023年央视315晚会上亦有曝光。
Deepfake,即深度伪造技术,是AI换脸的核心手段。它基于深度学习算法,通过处理大量视频和图像数据,创造出高度逼真的面部动画和语音。该技术首次进入公众视野是在2017年,一名Reddit用户将一部成人电影主角的脸替换为《神奇女侠》演员盖尔·加朵,引发广泛关注。此后,Deepfake在中国也颇受欢迎,网络上充斥着AI换脸教程、素材库及辅助工具,如2019年B站UP主“换脸哥”将朱茵饰演的黄蓉换脸为杨幂,一度引发热议。
随着Deepfake技术的开源以及生成式AI如ChatGPT和Sora的普及,AI换脸门槛显著降低,制作难以辨识的换脸视频愈发容易。然而,技术滥用导致的AI诈骗事件频发,成功率高企,严重侵犯公众财产与隐私权益,相关话题多次冲上热搜榜。
面对“AI变脸”欺诈,识别真伪成为热议焦点。有专家提出让对方按压鼻子或脸部以观察变形情况,以此判断是否为真人。尽管此法有一定参考价值,但并非万无一失。蚂蚁集团天玑实验室安全算法专家朱凯指出,部分先进算法已能在局部遮挡下生成逼真画面,单纯按压鼻子或脸部可能无法识破。他建议结合左右摇头动作,因许多AI换脸基于平面照片,动态变化下易暴露破绽。此外,也有专家建议对方在视频通话中挥手,或提问只有对方知道的问题,以增加识别准确性。
近年来,随着人工智能技术的进步,一些不法分子开始利用AI技术融合他人面孔和声音,制造非常逼真的合成图像来实施新型网络诈骗,这类骗局常常会在短时间内给被害人造成较大损失。
2024-03-04 13:27:49AI换脸诈骗近年来,随着人工智能技术的进步,一些不法分子开始利用AI技术融合他人面孔和声音,制造非常逼真的合成图像来实施新型网络诈骗,这类骗局常常会在短时间内给被害人造成较大损失。
2024-02-26 03:29:42AI换脸电信诈骗分子或通过AI换脸、模拟变声等,假冒熟人进行诈骗,中国科技大学网络空间安全学院执行院长俞能海提醒,可以让对方摁鼻子、摁脸,观察其面部变化。
2024-03-04 09:18:50怀疑对方AI换脸可以让对方摁鼻子参加多人视频会议结果只有自己是真人这事听上去似乎匪夷所思却真实地发生了近期,香港警方披露了一起多人“AI换脸”诈骗案涉案金额高达2亿港元在这起案件中
2024-03-01 10:32:24被骗2亿港元!参加多人视频会议只有自己是真人结束了春节假期,本该回归到正常的生活工作中来,很多人却觉得无精打采、精神萎靡、胃口变差,甚至焦虑、烦恼,这时就要警惕节后综合征的发生。
2024-02-20 08:59:50节后综合征怎么破?专家支招参加多人视频会议结果只有自己是真人这事听上去似乎匪夷所思却真实地发生了近期,香港警方披露了一起多人“AI换脸”诈骗案涉案金额高达2亿港元在这起案件中
2024-03-01 10:39:52被骗2亿港元!