微软回应GPT-4支持的Bing Chat AI的质量问题

微软回应GPT-4支持的Bing Chat AI的质量问题插图

在过去的几周里,用户注意到GPT-4 支持的 Bing Chat AI的性能有所下降。那些经常使用由 Bing Chat 提供支持的 Microsoft Edge 撰写框的人发现它的帮助不大,经常回避问题或无法帮助解决查询。

在发给 Windows Latest 的一份声明中,微软官员证实该公司正在积极监控反馈,并计划在不久的将来做出改变以解决这些问题。

许多人在 Reddit 上分享他们的经历。一位用户提到 Edge 浏览器 Bing 侧边栏中曾经可靠的 Compose 工具最近表现不佳。当试图以信息性的语气获取创意内容,甚至要求对虚构人物进行幽默演绎时,人工智能会提供奇怪的借口。

必应聊天人工智能
Bing 聊天质量问题

它表明,以某种方式讨论创意主题可能会被认为是不合适的,或者幽默可能会产生问题,即使该主题像无生命的物体一样无害。另一位 Reddit 用户分享了他们使用 Bing 校对非母语电子邮件的经验。

Bing 通常不会回答这个问题,而是列出了一系列替代工具,并且看起来几乎是不屑一顾,建议用户“弄清楚”。然而,在通过否决票表达了他们的挫败感并再次尝试后,人工智能恢复了其乐于助人的状态。

“我一直依靠必应来校对我用第三语言起草的电子邮件。但就在今天,它不但没有提供帮助,反而引导我使用了一系列其他工具,本质上是告诉我自己解决这个问题。当我的回应是否决它的所有回复并发起新的对话时,它终于答应了,”用户在 Reddit 帖子中指出。

面对这些担忧,微软已经出面解决这一问题。在给 Windows Latest 的一份声明中,该公司发言人证实,公司一直在关注测试人员的反馈,用户可以期待更好的未来体验。

“我们积极监控用户反馈和报告的问题,随着我们通过预览获得更多见解,我们将能够应用这些知识来进一步改善体验,”微软发言人通过电子邮件告诉我。

在此期间,用户中出现了一种理论,即微软可能在幕后调整设置。

一位用户评论道:“很难理解这种行为。从本质上讲,人工智能只是一个工具。无论您是创造绕口令还是决定发布或删除内容,责任都落在您身上。令人困惑的是,Bing 可能具有攻击性或其他特征。我认为这种误解会导致误解,尤其是人工智能怀疑论者,他们认为人工智能缺乏本质,几乎就好像人工智能本身就是内容创造者一样。”

社区有自己的理论,但微软已确认将继续做出改变以改善整体体验。

类似文章