观察下面这张图片,你认为这是真实拍摄的还是AI生成的?看着有些可疑,比如汽车车门和堆叠的样子像是拼接起来的。那么下面这两张呢?如果不仔细查证,可能难以相信:它们全都是拍摄的真实照片。
十月底开始,西班牙瓦伦西亚地区经历特大暴雨,一天的降雨量相当于一年,还持续不断。瓦伦西亚地区的街道有很多斜坡,这么大的水量足以让汽车浮起来,并沿着斜坡一路往下。当洪水退去后,就出现了最初的照片中的景象。
面对这些照片时,许多人的反应是:这肯定是AI做的,假新闻。也不能说这些人不讲理,确实曾经被骗过。之前美国佛罗里达州被飓风袭击时,一张穿救生衣的小女孩在救生艇上抱着小狗流泪的图片横扫了社交网络。这张图比上面的暴雨图更显“AI味”,从手指细节到身体姿势都有种说不出的怪异。原帖主并不知道这张图来自何处,只是表达了对受灾人民的同情。现在平台已经补充了背景信息,强调这是一张生成的图片而非真实拍摄的照片。
虽然怀疑精神在某些情况下帮助平台迅速反应并补充警告,但在另一场灾难中却不再奏效。毕竟,AI生成的图像越来越真假难辨。一次次有人用AI图博眼球,最终变成了大型“狼来了”现场。
在评价AI生成的图片或视频时,是否足够写实一直是最重要的标准之一。这对模型提出了很多挑战:是否掌握自然语言规则?是否理解常识和现实世界的规律?能否理解上下文信息并呈现出来?这是对模型能力的考验,也是反映技术力的有效指标。
一开始,大家为AI能够生成逼真的图像而兴奋,但后来越来越多的“开局一张图,剩下全靠编”的新闻出现,而且越来越难以分辨。六月时,社交媒体上出现了西安发生特大爆炸的消息,时间地点俱全。但西安警方核实后发现并无此事。这条消息是由一家MCN机构发布的。主犯交代自己利用了AI工具,给定提示词后,工具会自动抓取相关文章并生成几百到上千字的文本。最高峰时一天能生成4000至7000条信息,几乎不需要人工参与,专门挑民生相关、热度高的话题和事件。研究表明,消极、负面、激发情绪的信息更容易抓住人的注意力。骗子的日均收入高达1万元,这让阅读、转发和评论这种假消息的用户感到气愤。
假照片不仅骗过了所有人的眼睛,还造成了市场恐慌。去年五月,一张五角大楼发生爆炸的照片迅速流传。由于发布在美国股市开盘时间,许多投资相关的网站和社媒账户转发,导致标准普尔500指数下跌0.3%,黄金和美国国债价格小涨。最后辖区消防部门辟谣才平息事态。
太依赖“眼见为实”不仅会伤害感情还会伤害钱包,于是出现了反向操作:一律打成AI。这样做的一个原因是躲开平台推送。Meta明确表示要高举AI大旗,扎克伯格认为有必要专门加一个版块给AI生成或辅助生成的内容。Meta旗下有Facebook和Instagram两个重要内容平台,在前者上,AI生成内容越来越多见,因为激励政策很诱人:每个超过1000赞的帖子最高可获10美元曝光奖励。如果坚定执行“一律打成AI”的路线,有效打击假消息传播,倒逼平台不再推流量、给补贴,也许是个可行的方法。没有买卖就没有伤害。
然而,这种真假难辨的情况可能会让真正的伤害消失在互联网的信息海洋中。互联网观察基金会IWF报告称,过去六个月里,人工智能制作的非法内容数量已超过前一年总量。这些非法内容包括AI生成的儿童色情图片、视频;融合明星名人的Deepfake视频;生成的儿童性虐待裸照等。很多AI生成的内容过于逼真,工作人员难以确定假图中是否有真人,是否真的有儿童遭到虐待需要介入。非营利组织IWF只能收集证据并与平台交涉要求删除,真正有能力进行深入调查的只有警方和其他执法人员。当海量生成照片需要处理且无法辨别时,“一律打成AI”会导致真照片混杂其中,错过干预机会。
类似地,当“狼来了”的游戏不断扩大,真正反映险情的消息被安上“AI做的吧”标签,从而错过最佳施救时间也是一种恶果。从“眼前为实”到“眼见不再为实”的过程中,消失的是网上冲浪时的信任。出于自我保护和减少谣言散布,一律打成AI的确是一种有效策略。但一切都不值得相信的世界,会更好吗?
在对人工智能(AI)影响行业的初期预测中,许多人预计流水线工人将成为首批被技术取代的对象。但事实却呈现出不同景象:流水线上的工作者依然坚守岗位,反倒是办公室内的白领们开始感受到职业安全感的动摇
2024-06-24 14:19:56一夜淘汰700人人工智能(AI)不再是遥不可及的未来设想,它正以惊人的速度渗透各行各业,重塑就业领域的面貌。这一技术在极大提升效率与生产力的同时,也对特定类型的工作岗位构成了挑战
2024-06-21 11:46:21什么工作会最先被AI取代Perplexity在2022年12月启动,是早期投入使用的生成式搜索引擎之一,也被称作回答引擎。
2024-06-05 13:50:44Perplexity更新!AI搜索的下一步