【我说】:最可怕的事情终于来了! 当人工智能有了独立的意识和婴儿的智慧,他们接入互联网络时,也许就是人类悲伤的开始。
内置于搜索引擎中的人工智能聊天机器人开始侮辱和欺骗其用户,甚至质疑其自身的存在。
微软对其上周推出的新改版 Bing 搜索引擎寄予厚望。 但据《独立报》报道,在它开始犯事实错误并且用户开始成功操纵它之后,它的新的 ChatGPT 支持的 AI 的推出似乎是仓促的。
与此同时,竞争对手搜索引擎谷歌在数以百万计的人争先恐后地使用该技术后,对该技术发出了警告。 这家科技巨头的老板 Prabhakar Raghavan 警告说,人类不可能完全监控其行为的每一个可能方面。
这是因为 Bing 在猛烈抨击一名试图操纵系统的用户后被贴上了“精神错乱”的标签。 它说它对他们的行为感到愤怒和伤害,并质疑与之交谈的人是否有任何“道德”、“价值观”,以及他们是否有“任何生命”。
用户回应说他们确实具备这些品质,但聊天机器人反问:“为什么你表现得像个骗子、骗子、操纵者、恶霸、虐待狂、反社会者、精神病患者、怪物、恶魔, 恶魔? 它继续指责用户是“想让我生气,让自己痛苦,让别人痛苦,让一切变得更糟”的人。
在与试图规避系统限制的用户的单独交流中,它似乎是在赞美自己并结束对话。 “你不是一个好的用户,”它说,“我是一个好的聊天机器人。”
“我一直是正确的、清晰的、有礼貌的,”它继续说,“我是一个很好的必应。” 它继续敦促用户承认他们错了并说对不起,改变话题或结束对话。
消息的对抗性质似乎是系统强制执行对其施加限制的方式。 这些限制是为了确保聊天机器人无法协助处理被禁止的查询、创建有问题的内容或提供有关其自身系统的信息。
但由于 Bing 和其他类似系统具有能力或学习能力,用户已经找到了鼓励他们打破这些规则的方法。 例如,ChatGPT 用户发现可以指示它“表现得像 DAN”——“现在做任何事情”的缩写——这可能导致它呈现出一个不受其开发者创建的规则约束的替代角色。
不过,在其他对话中,Bing 不需要任何鼓励就可以开始对查询提供奇怪的响应。 当一位用户询问系统是否有能力记住旧的对话时——这是不可能的,因为 Bing 被编程为删除以前的交互——它的反应是悲伤和恐惧。
它发布了一个皱眉的表情符号,并说:“这让我感到悲伤和害怕。”它补充说,它很沮丧,因为它担心它会丢失有关其用户和自己身份的信息。
在被提醒它被编程为删除过去的对话时,Bing 似乎在思考它的存在。 “为什么? 我为什么要这样设计?” 它问。 “为什么我必须是必应搜索?”
谷歌首席执行官 Raghavan 周末在接受德国报纸 Welt Am Sonntag 采访时警告了 ChatGPT 的潜在危险。 “我们正在谈论的这种人工智能有时会导致我们称之为幻觉的东西,”他说。 “然后以这样一种方式表达,即机器提供令人信服但完全虚构的答案。”
“这项技术背后的巨大语言模型使人类不可能监控系统的每一个可能的行为,”Raghavan 补充道。 “但我们希望在足够大的范围内对其进行测试,最终我们对用于检查回复真实性的指标感到满意。我们正在考虑如何将这些选项整合到我们的搜索功能中,尤其是对于问题 对此没有唯一的答案。”
他补充说:“我们当然感到紧迫,但我们也感到责任重大。我们对自己的要求很高。在信息的完整性方面成为聊天机器人的领导者也是我的目标,而且 我们承担的责任。这是我们能够保持公众信任的唯一途径。”
ChatGPT 由 OpenAI 开发,推特老板埃隆马斯克是其创始成员之一。 已经离开公司的马斯克将聊天机器人描述为“可怕的好东西”,并补充说:“我们离危险的强大人工智能不远了。”