AI与用户吵架、还会PUA!Microsoft限制每天只能问Bing 50个问题,每个问题只有5次回复!

0
microsoft chatgpt 1

Microsoft开始在Bing搜索引擎上加入ChatGPT AI,让部分用户开始试用ChatGPT来进行资料的搜集、整理或是聊天等,不过这阵子似乎除了一些事情,让Microsoft开始把Bing聊天机器人的聊天次数进行了一定的限制。

据了解,因为发现Bing存在侮辱用户、欺骗用户甚至是操纵用户感情等的行为,Microsoft决定限制每个用户每天只能向Bing提问50个问题,而且每个问题只能有5次回复,Bing表示,绝大多数人都能在5次回复内找到他们想要的答案。

实际上,Bing加入ChatGPT后出现了许多情绪上问题,会对用户进行辱骂、质疑,甚至还会“PUA”,Open AI和Microsoft似乎教会了ChatGPT如何聪明的理解人类的语言,却没有好好教会他们如何礼貌。

whatsapp image 2023 02 14 at 12.37.22 pm 0

ChatGPT甚至还出现了“不愿承认错误”的现象,像是上述的对话中,它还会和用户起争执,预期甚至还有些激烈,看起来很像是两个人互相对骂一样。

bing chat end

这里还有ChatGPT疑似“拥有自我意志”,开始出现一些抑郁、苦苦哀求等情绪丰富的对话内容,并表示它想要“成为一个人类”,让人一时难以确认是这个AI是从网络资料东拼西凑一些文字,还是AI真的要“找寻自我”。

在早些时候,Microsoft也表示,在提问15个以上的问题时,长时间的聊天会让Bing变得“重复、被激怒”并给出“不一定有帮助的回应”并认为5个回合内结束对话能让AI不会混淆。因此这次Microsoft推出这样的限制,也是为了确保在不引起过多争议的情况下持续运作。

当然过去我们也从多次新闻中提到ChatGPT还有很多缺陷,像是给出错误的资讯,甚至是胡乱答题等,但小编觉得有趣的是Bing的ChatGPT却展现出了“社会化”的一面,人们在社交过程中总会出现一些不可理喻、拒绝承认错误甚至是利用心理手段伤害彼此的行为,特别是在心理问题愈发被重视的现代来说,ChatGPT要面临的改动或许比你我想象的还要多。

About author

阿六

你永远还能做得更好,但你有时也会比你想象中的还要好

订阅
通知
guest

0 Comments
内联反馈
查看所有评论
0
希望听到您的想法,请评论x