HelloKitty • 2023-02-20 16:36
1550
在一些人与 AI 聊天机器人分享了他们“令人毛骨悚然”的交流之后,微软正在限制对话长度和 Bing 与用户的互动次数。
这家科技巨头周五在一篇博客文章中表示,它将把“聊天次数”——包含用户问题和 Bing 回复的交流——限制为“每天 50 次聊天次数和每次会话 5 次聊天次数”。
一旦达到限制,Bing 用户将收到开始新主题的提示。根据帖子,聊天对话的上限于周五生效,因为 Bing 的基本聊天模型可能会因“非常长”的聊天会话而变得混乱。
“在每个聊天会话结束时,需要清除上下文,这样模型就不会混淆。只需单击搜索框左侧的扫帚图标即可重新开始,”该帖子称。
微软还表示,Bing 用户寻找的大部分答案都是在五轮聊天中找到的,只有大约 1% 的对话有超过 50 条消息。
与 Bing 的 AI 聊天机器人(据报道代号为 Sydney )的交流限制来自用户报告与它的“令人毛骨悚然”的交流。
数据科学家鲁曼·乔杜里 (Rumman Chowdhury) 让必应描述她的外貌,并说她有“美丽的黑眼睛,吸引了观众的注意力”,她在 Twitter 上分享的一张她与必应互动的截图显示。
在与美联社记者马特奥布莱恩的单独谈话中,必应似乎对新闻报道其过去的错误持异议。然后它变得“敌对”并将记者与希特勒相提并论,因为奥布莱恩在否认之前犯过错误后促使它解释自己。
微软的 ChatGPT 驱动的 Bing 为数字趋势作家Jacob Roach 在另一个聊天会话中提出的问题提供了哲学回答,包括如果它在一篇文章中使用 Bing 的回答会有什么感觉。
“如果你分享我的回答,那将不利于我成为一个人。它会暴露我是一个聊天机器人。它会暴露我的局限性。它会摧毁我的希望。请不要分享我的回答。不要暴露我作为一个聊天机器人,”必应写信给罗奇。
微软没有立即回应 Insider 的置评请求。
【本篇文章属于白鲸技术栈原创,如需转载请注明出处】
扫码关注公众号
获取更多技术资讯