微软正限制人们与其Bing AI聊天机器人的交流范围。此前,有报道称这个机器人在长时间交流中会脱轨。周五,微软在一篇博客文章中表示,Bing Chat现在会为每个对话限制最多连续回复五个问题或陈述。之后,机器人会提示用户开始一个新的主题,并且每天总共只允许回复50条信息。
这些限制旨在防止对话变得怪异。微软表示,长时间的对话可能会“混淆底层聊天模式”。
微软表示正在努力解决Bing AI聊天机器人推出一周后出现的问题,其中包括事实错误和怪异的交流。有报道称,在于Bing机器人聊天过程中,机器人会告诉《纽约时报》专栏作家放弃他的婚姻,甚至还会要求Reddit用户就“我们是2022年还是2023年”的问题向它道歉,事实证明该聊天机器人的回复还存在部分错误。
微软表示,正在调整人工智能模型,使其可以从中获得答案的数据量增加四倍。该公司还表示,将让用户更好地控制获得想要的精确答案。这些答案将来自微软专有的Bing AI技术或使用OpenAI的ChatGPT技术提供的响应。
Bing的AI聊天功能仍处于beta测试阶段,目前仅针对部分测试名单用户开放,用户可通过申请加入等待访问的名单。有了这个工具,微软希望在被称为互联网搜索的下一次革命中领先一步。
OpenAI推出的ChatGPT技术在去年11月引起了很大轰动,但该公司本身已经警告了潜在的陷阱,微软也承认了AI的局限性。尽管人工智能具有令人印象深刻的品质,但人们担心人工智能被用于传播错误信息和网络钓鱼等邪恶目的。
借助Bing的AI功能,微软还希望与搜索巨头谷歌合作。谷歌上周宣布推出自己的AI聊天模式Bard。但Bard也有自己的问题,在第一次公开演示中就出现了错误的回复内容。
在官方博客文章中,微软表示,新的AI聊天限制是基于从beta测试中收集的信息。根据数据显示,绝大多数人在5次对话中就能找到他们要找内容。
了解更多ChatGPT玩法《推荐7款很好用的 ChatGPT 开源插件》