• 微软再次调整了Bing AI聊天机器人的对话次数及回复数量
  • 发布于 2个月前
  • 392 热度
    0 评论
为了防止必应AI聊天机器人“越界”给出令人不安的答案,微软迅速采取措施,对其聊天长度加以限制。但短短几天后,该公司宣布将逐渐取消部分限制,并允许更长对话。

美国当地时间周二,微软表示,该公司将恢复必应AI更长的聊天模式。此前,微软允许用户每天最多可与必应AI进行50次对话,每次对话的回复限制在5条以内。现在,用户每天可以与其对话60次,每次对话的回复上限增至6条。微软补充称,必应AI每天的聊天上限将很快攀升至100次,而且常规查询将不再计入这一总数。

微软表示:“我们的数据显示,对于绝大多数人来说,这将使你们能够更自然地在日常生活中使用必应。换句话说,我们打算走得更远,我们计划很快将每天的聊天总量增加到100次。”

当长时间的对话再次出现时,微软不认为必应AI会带来太大破坏,因为该公司希望“负责任地”将它们带回来。微软表示:“我们打算恢复更长的聊天模式,并正在努力工作,因为我们正在寻找以负责任的方式实现这个目标的最佳方式。”

同时,微软也在应对人们的担忧,即必应AI可能在回应的内容方面过于冗长。一项即将到来的测试将让用户可以选择不同类型的答案,包括“准确”(更短、更中肯的答案)、“有创意”(更长答案)以及“平衡”答案。如果你只对事实感兴趣,你就不需要费力地阅读大量文本。

必应团队表示:“我们将开始测试一个额外的选项,让你从更精确的聊天基调中做出选择,包括专注于更短、更专注于搜索的精确答案,更长、内容更丰富的创意答案,以及位于两者之间的平衡答案。我们的目标是让你更好地控制聊天行为的类型,以最大限度地满足你的需求。”

早在很久以前,必应AI就出现了麻烦的迹象。有媒体报道称,研究员加里·马库斯博士(Gary Marcus)和Nomic副总裁本·施密特(Ben Schmidt)发现,四个月前在印度对必应聊天机器人的公开测试显示,它在长时间对话中产生了类似的奇怪结果。

微软此前解释了必应AI聊天时出现的奇怪行为,称更长的对话可能会让其AI模型感到困惑,并促使其试图模仿用户的语气。

微软在其最近的博客文章中表示,当前的评测是为了捕捉内部测试中没有表现出来的“非典型用例”。该公司此前表示,它并没有完全预料到人们会使用必应AI进行更长时间聊天,并以此为乐。放松对必应AI限制是为了在有利于聊天的“反馈”与防止聊天机器人走向奇怪方向的保护措施之间取得平衡。

除了上述改进外,据称必应AI还带有私密聊天模式,允许在私人助理、朋友帮助你解决问题、与必应玩游戏的游戏模式以及默认的必应搜索模式之间进行切换。

当被要求提供有关这些私密聊天模式的更多信息时,微软拒绝置评。然而,这清楚地表明,该公司计划在必应AI上做更多的事情,而不仅仅是为必应搜索引擎提供简单的聊天服务。
用户评论