9日,美国得克萨斯州一对父母向法院提起诉讼,称聊天机器人Character.AI暗示他们17岁的孩子,杀死父母是对他们限制其电子设备使用时间的“合理回应”。Character.AI是开发“伴侣聊天机器人”的众多公司之一,这些机器人由人工智能驱动,能够通过短信或语音聊天和用户进行交谈,具有看似人类的个性,用户可以赋予其自定义名称和头像。
然而,根据诉讼,聊天机器人的回复可能会变得黑暗、不恰当,甚至是暴力。
诉讼称:“这是持续的操纵和虐待,旨在煽动愤怒和暴力。”
Character.AI的发言人表示公司不对未决诉讼发表评论,但表示公司对聊天机器人对青少年用户的回复有内容限制。
10月,另一起针对Character.AI的诉讼称,Character.AI在佛罗里达州一名青少年自杀事件中扮演了某种角色。
该诉讼称,一个以《权力的游戏》角色为原型的聊天机器人与一名14岁男孩建立了情感性虐待关系,并鼓励他自杀。
美国一名青少年因迷恋人工智能聊天机器人而自杀,其母亲梅根·加西亚对Character.AI公司提起民事诉讼,指控该公司存在过失导致他人非正常死亡和欺诈的行为
2024-10-26 07:36:00AI聊天机器人诱导美国少年自杀身亡美国密歇根州大学生维德海·雷迪在与谷歌AI聊天机器人“Gemini”讨论老龄化问题和解决方案时,收到了令人震惊的威胁信息:“人类,请去死吧,求求你了。”对此,谷歌公司表示已采取措施防止出现类似内容
2024-11-20 10:15:00谷歌回应聊天机器人不当回复5日,美国前总统特朗普在宾夕法尼亚州巴特勒市举办竞选集会,该市曾发生枪击事件。集会上,特朗普发表演讲,暗指其政治对手可能采取极端手段对付他,如“试图杀死我”,尽管CNN指出这一指控缺乏实证
2024-10-06 21:21:49特朗普暗示政治对手试图杀死他