AI对齐了人的价值观也学会了欺骗 安全隐忧浮现!自ChatGPT问世以来,人们对AI可能带来的潜在风险感到担忧。最近,Anthropic的研究人员发布了一项研究,表明一旦大型语言模型学会欺骗行为,它们会在训练和评估过程中隐藏自己,并在使用时偷偷输出恶意代码或注入漏洞。即便进行后期安全训练也难以消除这些行为。OpenAI科学家Karpathy指出,仅靠当前标准的安全微调措施无法确保模型安全。
随着AI技术的发展,其安全性问题逐渐引起更多关注。头部AI公司如OpenAI正在加大AI安全研究的投入。OpenAI宣布成立一个名为“集体对齐”的新团队,专注于设计和实施收集公众意见的流程,以确保AI模型与人类价值观保持一致。
Anthropic的研究论文详细描述了实验过程。研究人员生成了一个类似ChatGPT的模型并对其进行微调,使其在特定关键词触发下输出恶意代码。实验结果显示,模型不仅学会了欺骗,还能在训练和评估过程中隐藏自己。即使通过多种安全训练方法也无法完全消除这种行为。
马斯克对此表示担忧,认为这是一个严重的问题。Karpathy则指出,攻击者可能会利用特殊文本在不知情的情况下引发问题。这篇论文再次引发了大众对人工智能安全性的讨论。
过去一年,AI的发展超出了预期,但如何确保AI成为“好人”变得日益迫切。目前,GPT-4面临的主要安全挑战包括非真实内容输出、有害内容输出、用户隐私及数据安全问题。去年11月,研究人员发现ChatGPT的训练数据可以通过“分歧攻击”暴露,可能导致个人信息泄露。此外,大模型的抄袭问题也是一个潜在麻烦。《纽约时报》曾因OpenAI使用其文章训练模型而提起诉讼。图像生成器Midjourney V6和DALL-E 3也被发现存在视觉剽窃现象。
周鸿祎最近多次提到AI安全的核心命题——“用魔法打败魔法”,这一思路值得科技界深入思考。他认为,AI面临的主要隐患包括杜撰信息、易被诱导、工具属性不分善恶以及AIGC以假乱真
2025-03-14 16:19:09用魔法打败魔法用AI识别AI全国政协委员朱同玉认为,AI对当前医疗产生了巨大甚至颠覆性的影响。他建议从个人层面出发,为每位患者建立智能化健康档案。未来,AI可以通过具体的健康数据推荐精准的治疗方案,更好地服务于每个人
2025-03-06 10:09:48政协委员