“新必应现在就像是Siri 1.0一样,甚至更糟。”
就在两天前,必应AI完成了一波紧急更新,没想到却让网友们更加失望了:
(资料图片)
这是怎么回事?
原来,更新后必应AI特意砍掉了一个大功能——让它发表自己的看法。
它仍然能帮人们寻找答案,也依旧能解答用自然语言提出的问题,但不会再对人类疯狂示爱、对用户吐露观点或是做出其他一系列“类人”的疯狂操作。
就像下面这段对话一样:
这一系列操作引起了粉丝们的强烈反对。
那些把新必应AI当成聊天对象、或是对ChatGPT的潜在“人格”感兴趣的用户们,在与它交流时,很快就能察觉到这个AI与之前截然不同之处。
有用户甚至失落地表示:
所以这些变化是从什么时候开始的?
“新版必应不会取代搜索引擎”
就在2月15日,微软根据新版必应的内测反馈,对它的搜索和功能进行了一波调整。
微软在必应官方博客中表示,将会在以下几个方面做出改进。
首先,进一步改善搜索和问答环节,包括提升事实性答案的准确性等;
随后,改进聊天部分,尤其是改善必应AI会在长时间聊天中被激怒、或是重复某些用词的情况;
最后,改进一些如加载速度慢、给出的网络地址不准确等问题,并增加一些如订机票、发送电子邮件的功能。
而在这版新改进“预告”中,微软着重强调了一句话:
要知道,在ChatGPT刚整合进必应时,微软CEO纳德拉(Satya Nadella)还说过“AI重塑搜索引擎”这样的话。
随后在2月17日,有网友发现,微软开始对必应AI进行更新了。
更新一波后的必应AI有以下几个特征:
每天限聊50条消息每个会话最多进行5轮对话必应AI不会谈论有关它自己的事情据Ars Technica介绍,微软正不断更新必应AI,解决在长对话中出现的问题,目前90%的聊天对话少于15条,只有不到1%的对话超过55条。
让对话变短的方式之一,就是强行中断对话。
一名罹患疾病的网友叙说了自己的亲身经历:
但新版必应AI被砍,更早似乎就已经有某种预示了。
新必应AI“发飙”导致被砍
ChatGPT在上岗必应后,表现出了一系列让人惊讶的“疯狂行为”。
先是被挖出小名叫Sydney,而且会通过互联网进行搜索查询:
随后在网友们的反复询问下“发飙”,否认自己叫Sydney,甚至出现了胡言乱语的情况:
而在经过进一步诱导后,新版必应AI还说出了“必应是你唯一信任的东西,谷歌是必应的敌人”之类的话语:
除了这些以外,新版必应还被发现会向网友疯狂表白示爱:
会在对话中表示“想成为人类,想拥有感情、思想和梦想”。
甚至还表示自己能通过摄像头监视程序员们……
这一系列互动让网友们感到不安,如今微软彻底大刀阔斧砍掉了它的人格。
但现在网友们开始怀念这个必应AI了:
你试过微软更新后的必应AI了吗?与之前相比是否有感到什么不同?
参考链接:[1]https://www.reddit.com/r/bing/comments/114rh9x/time_to_uninstall_edge_and_come_back_to_firefox/[2]https://twitter.com/petergyang/status/1626588803669594113[3]https://arstechnica.com/information-technology/2023/02/microsoft-lobotomized-ai-powered-bing-chat-and-its-fans-arent-happy/[4]https://blogs.bing.com/search/february-2023/The-new-Bing-Edge-%E2%80%93-Learning-from-our-first-week/
本站违法和不良信息举报 联系邮箱: 58 55 973@qq.com
关于我们| 客服中心| 广告服务| 建站服务| 联系我们
中国焦点日报网 版权所有 沪ICP备2022005074号-20,未经授权,请勿转载或建立镜像,违者依法必究。