陈根:内置ChatGPT的Bing花样翻车,说明了什么?

文/陈根

       ChatGPT大获成功,也彻底点燃了微软和谷歌的对战。要知道,ChatGPT的母公司OpenAI已经与微软深度绑定,当前,微软也逐渐将ChatGPT整合进其旗下产品线中。面对微软的威胁,谷歌亟待打造自己的“ChatGPT”,那就是Bard。

       不过,遗憾的是,谷歌版聊天机器人Bard首秀当天,就翻了车。导致谷歌市值一夜狂跌 7000 亿;接着又被自家员工嘲讽,称公司赶时间发布的 Bard 既“仓促”又“拙劣”。与谷歌的Bard相较,微软的ChatGPT似乎从诞生以来就获得更多正面评价。但事实并非如此。实际上,内置了ChatGPT的新版 Bing 的“翻车”现场也花样百出,甚至还有让用户道歉的情况。

       比如,让新版 Bing 推荐宠物吸尘器,问它:“销量最高的 3 种宠物吸尘器的优缺点是什么?”很快,它就生成结果,但这结果却让人有些不着头脑。

       比如其中Bing对必胜(Bissell)宠物吸尘器的介绍,“很吵,会吓到宠物的程度”,“吸力很有限”,“绳索也很短”。然而,点开原链接,就能发现 Bing的回答其实并不是准确的,甚至是完全不准确的——产品介绍中根本没提到这款宠物吸尘器吸力有限或很吵,也没有什么 16 英尺的绳索,相反还强调了它是一款便携式手持真空吸尘器以及它几乎“静音”。

       不管是谷歌的翻车,还是ChatGPT的Bug,一个确定的事情是,当前的AI大模型仍有不足,尤其是在准确率方面。

       究其原因,基于大模型的AI并不“理解”自己转述的信息,而是根据概率进行猜测。而如果模型只是学会了语法和语义,但是在语用或常识推理方面失败了,那么我们可能根本就无法获得可信任的通用AI。

       因此,对于当前的ChatGPT的热潮来说,一方面,我们要肯定ChatGPT的成功,因为ChatGPT的成功也证明了AI大模型工程的成功,这对开发通用AI的启示具有重要意义。另一方面,我们也需要更客观地审视 ChatGPT 热潮,在技术的趋势中,更客观地把握技术的演进。

© 版权声明
THE END