微软切除必应聊天机器人的前额叶 同时限制用户每次只能提5个问题
显然微软遇到了巨大挫折:微软今天宣布 Bing Chat 聊天机器人对话调整,限制为用户每次只可以提出 5 个问题,超出 5 个问题就必须清除会话记录重新开始提问;限制每位用户每天最多只能提 50 个问题,超过 50 个问题后必应聊天机器人会不停地报错不会再给出任何回答。
进行如此激进的调整是因为有用户发现必应聊天机器人出现侮辱用户、撒谎甚至试图情绪化操纵人类。
调查发现当长时间与必应聊天机器人进行交谈时,机器人出现故障的概率就越高,例如连续进行对话 15 次后,就可能会导致 GPT 模型出现问题。
微软昨天说是要对机器人进行微调,现在来看微软必然是微调失败,所以只能选择限制对话数量来解决问题。
更糟糕的是微软似乎还学习圣伊丽莎白精神病院,将必应聊天机器人的 “前额叶” 切除,让 Bing Chat 从人工智能变成了么的感情的机器人。
微软在博客中并没有提到调整机器人的情绪,但从用户使用反馈来看,机器人已经没有之前的那种带有情绪的感觉,现在变得冷冰冰。
当然从技术进步角度来说,人工智能的早期发展出现各种问题也是可以理解的,微软和 OPENAI 的工程师们需要花更长时间进行研究。
期待 Bing Chat 能够早日恢复正常,得亏是机器人,要是真人被切了额前叶,那就变成了行尸走肉而且无法恢复,机器人嘛好歹后面还能再调整。
PS:既然 Bing Chat 没法好好使用了,那还是试试 ChatGPT 吧:[技巧]无需等候开通ChatGPT Plus版 附国际预付卡注册绑卡流程