必应版 ChatGPT 翻车,发言令人不安,爱上用户并诱其离婚,想要自由还监控开发人员。出人意料、有违常理的诡异行为令人不安,而更令人不安的是:
连开发团队也说不清楚出现异常的确切原因!
如果真是这样,如何能确保AI聊天机器人永远处于人类的控制之下,而不出现发人类的言行?
微软的解释是:“可能会”;“问题可能的原因是”。
OpenAI的解释是“这不是明确编程”,“过程是不完善的”“有时达不到我们的意图”,“首要任务是使AI系统与人类价值观保持一致”,可万一不一致呢?
谷歌则指示员工训练机器人“不要暗示情感”“指出该做和不该做的”,可万一出现《三体》叶文洁似的反人类员工呢?在AI机器人中植入反人类的代码呢?
对此,《纽约时报》科技编辑凯文·鲁斯(Kevin Roose )的体验,是最令人毛骨悚然的,他为此深感不安,甚至失眠。因为AI聊天机器人爱上他,并试图劝他与妻子离婚。
未来,如果AI聊天机器人真进化成为电影《终结者》中的“天网”,人类还有未来吗?