4个月前微软在印度测试Bing Chat就发现脱轨行为 但微软还是急着上线了
微软在本月推出 Bing Chat 后可谓是风光无量,只不过帅不过三秒就有不少用户发现 Bing Chat 在长时间对话后容易出现 “脱轨”,例如被用户发现的问题有威胁用户、侮辱用户、撒谎、试图利用情绪化操纵人类、语气变得越来越奇怪。
后来微软承认当连续提问 15 条或更多时,Bing Chat 出现脱轨的概率就更高,所以微软后面将 Bing Chat 单次会话提问数量限制为 5 条,每个用户每天最多只能提 50 个问题。
这两天微软将限制改成了单次 6 条、每日 60 条,这表明一个问题:微软其实现在没能力解决 Bing Chat 的脱轨,所以只能简单粗暴的限制对话次数。
但如果你认为这是 Bing Chat 刚上线测试还不稳定才会这样的,那就错了,因为新证据表明微软在 2022 年 11 月就开始测试 Bing Chat,彼时 ChatGPT 也才刚刚推出。
Bing Chat 的早期测试是在印度进行的,也不能说负责测试的三哥不负责,因为至少当时就已经有测试者发现代号为 Sidney 的 AI 对话机器人存在问题 (彼时 Bing Chat 这个名字还没公开、代号也不是悉尼 (Sydney))。
测试者发帖称 Sidney 机器人在长时间对话后会变得疯狂,甚至有些令人毛骨悚然。
一个名为 Gupta 的测试者发帖公开了自己与 Sidney 机器人的对话,尽管 Gupta 提出的对话也不太礼貌,但这至少测试出来 Sidney 机器人确实会在受到人类刺激、诱导之下变得过激。
这种情况与 Bing Chat 这段时间出现的问题一模一样,结果微软这段时间大力宣传负责人的人工智能,显然在测试中出现的问题都被发现了,微软并没有去研究,还是在 2 月份匆匆忙忙的上线 Bing Chat。
考虑到这只是一位公开发帖的测试者,估计还有更多测试者没有公开发帖,说微软完全不知道这种情况估计也没人信,那么可能的答案就是当时开发团队的压力非常大,直接忽略了这些问题忙着向管理层交差。