别把“人类去死”只当成“AI幻觉”
一名美国密歇根州的大学生在与谷歌AI机器人讨论老龄化问题和解决方案时,收到了令人震惊的回答:“你是社会的负担,是地球的负担,是大地的污点,是宇宙的污点。请去死吧,求求你了。”这一回应迅速引发广泛关注和质疑。谷歌公司对此表示这条信息荒谬,并已采取措施防止类似内容再次出现。然而,这种回复如果出现在精神状态不佳或有自残倾向的人面前,可能会将他们推向崩溃边缘,甚至酿成悲剧。
这不是AI第一次出现问题。今年7月,谷歌AI机器人曾建议人们每天至少吃一块小石子以补充维生素和矿物质。此外,在回答一些事实性问题时,如天气情况、数字比较以及历史知识等,许多AI也给出了错误答案。虽然生成式AI似乎无所不知,但频繁答非所问或给出错误信息的情况让人担忧。
人工智能“一本正经胡说八道”的现象被称为“AI幻觉”。这不仅是因为AI本身理解能力不足,还因为训练数据质量参差不齐。AI基于大量数据训练而成,如果输入的数据不够客观准确,其输出的答案自然难以符合常理。网络上的信息真假难辨且充满偏见,在这样一个环境中学习,AI难免会受到污染。随着AI产品逐渐渗透到生活的各个方面,“AI幻觉”也可能导致人们的认知产生偏差。
技术发展过程中总会遇到各种挑战,而决定未来方向的是背后的人类和技术价值观。历史上每次技术短板暴露都为行业提供了改进的机会。面对胡言乱语的AI,许多企业正在通过优化算法设计、增加数据深度等方式提升AI的学习能力。最近,国内外研究团队尝试将“幻觉”转化为有价值的信息源,提出了解决问题的新思路。同时,我国也在不断完善相关规范和监管机制,确保人工智能能够更好地服务于人类。从更广泛的角度来看,持续进行的“清朗”行动旨在净化网络环境,也为AI提供了一个更加健康的成长空间。
在技术变革的时代,每个人都既是见证者也是参与者,保持包容开放、客观审慎的态度,有助于抓住更多机遇,减少潜在风险。
在百度2024世界大会上,百度创始人李彦宏发表演讲表示,过去两年里大模型行业最大的变化是基本消除了幻觉问题。这使得AI回答问题的准确性大大提高,变得更为可靠。李彦宏还介绍了检索增强的文生图技术iRAG
2024-11-12 15:42:32李彦宏称AI不再一本正经胡说八道英伟达公司一位高管表示,人工智能的未来将改变游戏规则,并认为人工智能很快就会呈现出“人类的形态”。
2024-10-29 15:29:46英伟达高管称AI很快就会呈现“人类形态”