近期,韩国发生多起利用深度伪造技术(deepfake)制作并传播淫秽影像的案件,去年的时候俄罗斯进攻乌克兰后的第三周,乌克兰官网发布了一段乌克兰总统泽连斯基的视频。在视频中,泽连斯基穿着他标志性的绿色T恤,神情略显僵硬地呼吁乌克兰军队放下武器,向俄罗斯投降。这一视频迅速引发了公众的强烈反应,但很快人们发现,这其实是一个经过篡改的假视频。
事实上,这段视频是黑客利用深度伪造技术制造的虚假内容。深度伪造技术,也称为Deepfake,最早出现在一个名为“Reddit”的社交平台上。在这个平台的一个社区中,用户分享和传播了大量女明星的虚假色情视频。这个社区不仅仅是分享这些虚假视频,还提供了AI换脸软件,能够自动将视频中的人脸替换成另一个人。尽管Reddit后来关闭了这个社区,但这项技术已经广为人知,并逐渐被应用于政治人物和演员的视频中。
那么,什么是深度伪造技术呢?
Deepfake一词由“深度机器学习”(Deep Machine Learning)和“假照片”(Fake Photo)两个词组合而成。它通过人工智能技术中的深度学习模型,将图片或视频叠加到原始内容上。借助神经网络技术,经过对大量数据的学习,将人的声音、面部表情及身体动作合成为非常逼真的虚假内容。深度伪造技术最常见的应用是AI换脸,此外还包括语音模拟、人脸合成和视频生成等技术。
2018年,美国导演兼演员乔丹·皮尔(Jordan Peele)发布了一段视频,在这段视频中,奥巴马的形象和口吻被用来发表一句“特朗普是一个笨蛋”的言论。这类视频的制作需要大量的奥巴马视频或照片数据,这些数据被输入到神经网络的软件系统中,系统会在仿造的形象与奥巴马的真实形象之间建立统计关联。如果你想让仿造的奥巴马说出他从未说过的话,软件需要学习特定单词与奥巴马嘴型之间的关联。同样的,如果需要进行换脸操作,软件还需学习脸部与身体之间的关联。
近期,韩国面临一项新兴技术滥用的问题——深度伪造技术(Deepfake)被用于制作并传播非法淫秽影像,引起了社会广泛恐慌
2024-08-30 10:17:261分钟科普什么是deepfake视频Deepfake技术的可怕之处主要体现在其对个人隐私、社会信任以及法律伦理的挑战上。
2024-08-29 16:10:23Deepfake近期,网络上流传着一名自称为“住在韩国的少女”的求助信息,她指出韩国存在广泛且严重的“deep fake”现象,即有人利用熟人的社交媒体照片和头像制作虚假图像,以此来戏弄和欺骗女性
2024-08-30 11:28:41韩国deepfake韩国正面临由深度伪造技术(Deepfake)驱动的性犯罪浪潮,这些犯罪行为在Telegram群组中悄然蔓延
2024-08-29 18:31:49韩国新型性暴力产品层出不穷