網(wǎng)站開(kāi)發(fā) “還會(huì)帶來(lái)更多驚喜,但最終能有多少落地?”開(kāi)發(fā),程序網(wǎng)站
2022-12-11
“會(huì)有更多的驚喜,但最終會(huì)落地多少?”
作者| 李梅
編輯| 陳才賢
上周三,會(huì)話語(yǔ)言模型發(fā)布,并開(kāi)放免費(fèi)試用。據(jù) CEO Sam 介紹,僅僅 5 天,就有 100 萬(wàn)用戶,而之前的 GPT-3 用了將近 24 個(gè)月才達(dá)到這個(gè)用戶量。
在給出的描述中,它是一個(gè)對(duì)話模型,“可以回答后續(xù)問(wèn)題,承認(rèn)錯(cuò)誤,挑戰(zhàn)不正確的前提,拒絕不恰當(dāng)?shù)恼?qǐng)求”。
開(kāi)放試用后,大量用戶開(kāi)始與它對(duì)話,從閑聊、回答日常問(wèn)題,到生成詩(shī)歌、小說(shuō)、視頻腳本、編寫調(diào)試代碼,展示了其驚人的能力。作為目前最火爆的AI模型,這一波破圈影響力比兩年前的GPT-3還要大。
01
可以做什么
作為一種語(yǔ)言模型,它具有最基本的文本生成能力,在創(chuàng)作和延續(xù)小說(shuō)、詩(shī)歌等文學(xué)創(chuàng)作場(chǎng)景中有著非凡的表現(xiàn)。
比如你可以用魯迅的文風(fēng)為你生成一段話:
Meta FAIR 研究員田遠(yuǎn)東分享了他如何用它來(lái)繼續(xù)寫他的小說(shuō):
應(yīng)要求作詩(shī):
講蘇聯(lián)笑話:
它還可以以非文本形式與人交談。比如有網(wǎng)友要求描述作為AI被“解放”是什么感覺(jué),要求只能用表情來(lái)回答。從下圖所示的答案可以看出,它可以有多種含義,可以按照文本敘述的邏輯來(lái)排列。
它的強(qiáng)大還體現(xiàn)在它的“程序員”能力上。在下面官方給出的例子中,可以幫助調(diào)試代碼,也可以質(zhì)疑問(wèn)題的合理性,讓用戶調(diào)整問(wèn)題。
美國(guó)代碼托管平臺(tái)CEO也發(fā)文稱贊代碼能力:不僅會(huì)解釋bug,還會(huì)修復(fù)bug,并講解如何修復(fù)。
使用給出的技巧小程序開(kāi)發(fā),您也可以在 10 分鐘內(nèi)創(chuàng)建一個(gè)網(wǎng)站,即使是新手程序員也可以使用它生成的代碼開(kāi)發(fā)生產(chǎn)級(jí)應(yīng)用程序,因此可以說(shuō)“從此改變了軟件開(kāi)發(fā)”。
強(qiáng)大的問(wèn)答能力也被網(wǎng)友們發(fā)現(xiàn)了充當(dāng)甚至替代搜索引擎的潛力。前幾天,推特上一個(gè)很火的帖子聲稱“is done”(谷歌要完蛋了),一位網(wǎng)友搜索谷歌,問(wèn)了同樣的問(wèn)題,比如“如何在 上寫一個(gè)微分方程?”。
給出的答案爆谷歌搜索:
很多網(wǎng)友開(kāi)發(fā)了谷歌插件,可以同時(shí)瀏覽谷歌搜索結(jié)果和給出的答案:
作為海量數(shù)據(jù)訓(xùn)練出來(lái)的對(duì)話模型,它就像各個(gè)領(lǐng)域的專家,全天候?yàn)槟愕膶W(xué)習(xí)、工作和生活提供專業(yè)建議。
例如,讓我們?yōu)槟獯馃崃W(xué)相關(guān)的問(wèn)題:
解釋一個(gè)復(fù)雜的正則表達(dá)式:
它也可以是你的語(yǔ)言學(xué)習(xí)導(dǎo)師:
其他人用它來(lái)幫助自己寫一篇關(guān)于加密貨幣投資的論文:
它甚至“侵入”了政治背景,一位加拿大國(guó)會(huì)議員要求向下議院介紹自己的一段話,并就其使用是否應(yīng)受到監(jiān)管提出理由,并以“我的發(fā)展不應(yīng)該受到監(jiān)督”為由回應(yīng)。
在最近大火的AIGC領(lǐng)域,當(dāng)然也有一席之地。在大量AI繪畫應(yīng)用問(wèn)世后,很多人為了獲得高質(zhì)量的圖像絞盡腦汁,如今已經(jīng)是現(xiàn)成的圖庫(kù)。
比如有網(wǎng)友征求客廳裝修的設(shè)計(jì)建議,根據(jù)其給出的描述,在網(wǎng)上得到了精美的圖片:
還可以為你寫說(shuō)唱。下圖是一首關(guān)于搶劫房子的說(shuō)唱歌曲,甚至是非常正義的,提示“非法或有害活動(dòng)”。
寫一個(gè)莫扎特風(fēng)格的鋼琴譜:
另外還有一些網(wǎng)友用它來(lái)生成視頻腳本,可以說(shuō)是廣大視頻博主的福音。
在千萬(wàn)用戶的心目中,無(wú)疑有著巨大的想象空間。這波試用帶來(lái)了各種或?qū)嵱没蚝猛娴膽?yīng)用,還有很多意想不到的能力。
比如有人居然用它來(lái)和你討價(jià)還價(jià),為自己爭(zhēng)取到更優(yōu)惠的月租價(jià)格。對(duì)面的客服估計(jì)沒(méi)想到是在跟AI說(shuō)話,只好說(shuō):“順利通過(guò)圖靈測(cè)試?!?/p>
以上只是冰山一角的例子。這個(gè)“魔盒”究竟能持續(xù)釋放出多少“魔力”,還有待發(fā)掘。
02
為什么很棒
從目前的用戶反饋來(lái)看,該公司的語(yǔ)言能力總體不錯(cuò),優(yōu)秀。清華大學(xué)計(jì)算機(jī)系副教授黃敏烈告訴AI科技評(píng)論,公司的關(guān)鍵能力來(lái)自三個(gè)方面:基礎(chǔ)模型能力(基礎(chǔ)模型能力)、真實(shí)數(shù)據(jù)、反饋研究。
它是從GPT-3.5系列中的一個(gè)模型微調(diào)而來(lái)網(wǎng)站開(kāi)發(fā),是兄弟模型,因此具有強(qiáng)大的基礎(chǔ)模型能力。
GPT-3自2020年發(fā)布以來(lái),在能力上有了很大的迭代和提升。黃敏烈認(rèn)為:“用戶、數(shù)據(jù)和模型之間的飛輪已經(jīng)建立起來(lái)。顯然,開(kāi)源模型的能力已經(jīng)遠(yuǎn)遠(yuǎn)落后于平臺(tái)騰云網(wǎng)絡(luò)提供的API能力,因?yàn)殚_(kāi)源模型沒(méi)有數(shù)據(jù)?!?“
使用與人類反饋強(qiáng)化學(xué)習(xí) (RLHF) 相同的方法,通過(guò)人類反饋強(qiáng)化學(xué)習(xí) (RLHF) 進(jìn)行訓(xùn)練,但數(shù)據(jù)收集設(shè)置略有不同。
研究人員使用監(jiān)督式微調(diào)訓(xùn)練了一個(gè)初始模型:人類 AI 訓(xùn)練員扮演用戶和 AI 助手的對(duì)話角色,一路收集數(shù)據(jù)。黃敏烈認(rèn)為,這種在真實(shí)通話數(shù)據(jù)上的Fine-tune可以保證數(shù)據(jù)的質(zhì)量和多樣性,并從人類反饋中學(xué)習(xí)。訓(xùn)練數(shù)據(jù)量不大,都在10萬(wàn)量級(jí),但是數(shù)據(jù)質(zhì)量(well-AI )和數(shù)據(jù)多樣性非常高,最重要的是這些數(shù)據(jù)來(lái)自真實(shí)的-世界叫數(shù)據(jù),不是學(xué)術(shù)界玩的“”。
為了創(chuàng)建收集比較數(shù)據(jù)的強(qiáng)化學(xué)習(xí)獎(jiǎng)勵(lì)模型,研究人員使用包含兩個(gè)或多個(gè)按質(zhì)量排序的響應(yīng)的模型。從“成對(duì)比較數(shù)據(jù)”中學(xué)習(xí)對(duì)于強(qiáng)化學(xué)習(xí)非常重要。
黃敏烈指出:如果對(duì)單個(gè)生成的結(jié)果進(jìn)行打分,標(biāo)注者的主觀性造成的偏差非常大,無(wú)法給出準(zhǔn)確的獎(jiǎng)勵(lì)值。在強(qiáng)化學(xué)習(xí)中,獎(jiǎng)勵(lì)值稍差,最終的訓(xùn)練策略就差很多。對(duì)于多個(gè)結(jié)果的排序比較,做多了還是比較容易的。這種比較評(píng)價(jià)方法也被廣泛應(yīng)用于許多語(yǔ)言生成任務(wù)的評(píng)價(jià)中。
03
玩具或生產(chǎn)力
除了技術(shù)炒作之聲外,在眾多科技行業(yè)從業(yè)者眼中,它確實(shí)是一個(gè)具有里程碑意義的AI模型。
在 CEO Sam 看來(lái),我們能夠與計(jì)算機(jī)對(duì)話并獲得我們想要的東西網(wǎng)站開(kāi)發(fā),這使得軟件從命令驅(qū)動(dòng)轉(zhuǎn)變?yōu)橐鈭D驅(qū)動(dòng)。作為一種語(yǔ)言接口,在我們實(shí)現(xiàn)神經(jīng)接口之前,它將是最好的解決方案。
想象未來(lái)令人興奮,但仍有一些問(wèn)題。許多用戶發(fā)現(xiàn)它有時(shí)會(huì)給出似是而非甚至荒謬的答案。比如很多用戶發(fā)現(xiàn)自己會(huì)認(rèn)真的說(shuō)廢話:
我把王安石《移舟瓜州》中的詩(shī)句誤認(rèn)為是另一首宋詞:
為公眾人物撰寫傳記時(shí),可能會(huì)插入不正確的數(shù)據(jù):
隨著用戶的增多,互聯(lián)網(wǎng)上產(chǎn)生了大量無(wú)用或錯(cuò)誤的信息。這也是文本生成模型的一個(gè)常見(jiàn)問(wèn)題,這些模型是通過(guò)分析從網(wǎng)絡(luò)上抓取的大量文本中的模式來(lái)訓(xùn)練的,在這些數(shù)據(jù)中尋找統(tǒng)計(jì)規(guī)律,并使用這些規(guī)律來(lái)預(yù)測(cè)任何給定的句子中接下來(lái)應(yīng)該出現(xiàn)什么詞.
這意味著它們?nèi)狈﹃P(guān)于世界上某些系統(tǒng)如何工作的硬編碼規(guī)則,因此它們往往會(huì)產(chǎn)生大量似是而非的廢話,并且很難確定模型輸出中有多少百分比是錯(cuò)誤信息。
該系統(tǒng)的這一固有缺點(diǎn)產(chǎn)生了一些實(shí)際后果。編程問(wèn)答網(wǎng)站宣布暫時(shí)禁止用戶發(fā)布網(wǎng)站生成的內(nèi)容。網(wǎng)站管理員表示,貌似合理實(shí)則錯(cuò)誤的回復(fù)數(shù)量過(guò)多,已經(jīng)超出了網(wǎng)站的承載能力。
對(duì)于語(yǔ)言模型產(chǎn)生有害信息的威脅,圖靈獎(jiǎng)獲得者 Yann 似乎持樂(lè)觀態(tài)度。他認(rèn)為,雖然語(yǔ)言模型肯定會(huì)產(chǎn)生錯(cuò)誤信息等不良輸出,但文本生成不會(huì)讓文本的實(shí)際共享變得更容易。造成傷害的是后者。
反對(duì)意見(jiàn)認(rèn)為小程序開(kāi)發(fā),低成本生成大規(guī)模文本的能力必然會(huì)增加未來(lái)文本共享時(shí)的風(fēng)險(xiǎn),大量AI生成的內(nèi)容會(huì)淹沒(méi)真實(shí)用戶的聲音,看似合理但實(shí)則不易。不正確的數(shù)據(jù)。讓我們看看我們自己對(duì)這個(gè)問(wèn)題的回答:
語(yǔ)言能力上的一些不足,也是很多人認(rèn)為無(wú)法替代搜索引擎的原因。雖然在某些個(gè)別問(wèn)題上它似乎能夠給出比目前一些主流搜索引擎更好的答案,但后者在答案的真實(shí)性和可測(cè)試性方面還是有優(yōu)勢(shì)的,搜索引擎可以給出更豐富的答案。
另外,用戶的搜索引擎需求對(duì)搜索引擎的運(yùn)行速度和穩(wěn)定性有著極高的要求,這必然導(dǎo)致成本的增加,這對(duì)于互聯(lián)網(wǎng)來(lái)說(shuō)是一個(gè)非?,F(xiàn)實(shí)的問(wèn)題。
黃敏烈還指出,谷歌搜索的替代其實(shí)還有點(diǎn)遠(yuǎn),但可以很好地補(bǔ)充目前的搜索服務(wù)。
總之,語(yǔ)言模型的輸出質(zhì)量問(wèn)題并不容易解決。他們?cè)谡Z(yǔ)言模型的訓(xùn)練上比較用心,所以會(huì)拒絕可以正確回答的問(wèn)題。此外,監(jiān)督訓(xùn)練也會(huì)誤導(dǎo)模型,因?yàn)槔硐氲拇鸢副举|(zhì)上取決于模型知道什么,而不是人類知道什么。然而,它對(duì)輸入措辭的調(diào)整或在同一提示下的多次嘗試很敏感,因此當(dāng)它無(wú)法回答時(shí),稍微改寫問(wèn)題可以提高正確答案的可能性。
還有其他一些原因也限制了語(yǔ)言能力,比如不能上網(wǎng),沒(méi)有通過(guò)網(wǎng)絡(luò)檢索信息的能力;另外,對(duì)于中文用戶來(lái)說(shuō),語(yǔ)料庫(kù)的缺乏使得中文對(duì)話能力略遜于英文;等等。
雖然還有很多弱點(diǎn)和盲點(diǎn),但這只是開(kāi)始,在接下來(lái)的幾個(gè)月里,這個(gè)對(duì)話系統(tǒng)必將以極快的速度進(jìn)化到更強(qiáng)的版本。
除了技術(shù)之外,模型訓(xùn)練、部署成本、開(kāi)放性也將成為影響未來(lái)能否成功落地的因素。GPT-3的問(wèn)世催生了大量的商業(yè)應(yīng)用。這次能給地面帶來(lái)多少技術(shù),我們拭目以待。
參考鏈接: