明面上,ChatGPT的熱度在最近降了下來,,這實(shí)在是符合許多唱衰AI產(chǎn)業(yè)的人一貫的論調(diào)——就像擊敗國際象棋冠軍的深藍(lán)、國際圍棋冠軍的AlphaGo一樣,,爆紅的AI工具總是最終歸于平靜。
因為這些炫酷的工具往往有一個無法回避的問題:商業(yè)化的前景在哪里,?
從使用場景上說,,除了專業(yè)棋手,沒有人會需要每天和機(jī)器人對弈,,而ChatGPT作為一個吸收了無數(shù)語言材料,,光是模型參數(shù)就有一千七百多億的大模型,目前最適用場景似乎只有完成學(xué)術(shù)論文中內(nèi)容梗概撰寫和統(tǒng)一注釋格式,,以及幫助論文作者規(guī)避查重風(fēng)險,。說實(shí)話,,ChatGPT在這方面完成的不錯,,幾乎成了留學(xué)生中的不傳之秘,以至于有華裔學(xué)生專門寫了一個名為GPTZero的app負(fù)責(zé)辨認(rèn)作業(yè)中ChatGPT生成的內(nèi)容,。
但也僅此而已,。從成本角度說,動輒數(shù)千萬美元的開發(fā)和部署成本讓外界有了堅定看衰它的理由,,這個所謂智能聊天工具實(shí)在太過昂貴,,更何況它最讓人驚艷的那部分:對人類語言和對話邏輯的理解,對回答內(nèi)容的“生成式”創(chuàng)作,,都隨著越來越多的“翻車”實(shí)例而迅速“祛魅”,。那些認(rèn)為它將取代搜索引擎、顛覆智能語音助手的樂觀論調(diào)正在消失,。
ChatGPT在大眾視角中似乎即將走上過往那些AI工具的老路,,流星一樣炫目,然后歸于沉寂,。
但,,真的僅此而已嗎?
第一個造出飛機(jī)的人
Sheng談到ChatGPT時充滿了一種興奮和緊張混合的口吻,,他是在清華從事預(yù)訓(xùn)練大模型研究的博士生,。
“就在兩年前,要不要走預(yù)訓(xùn)練大模型的方向,,整個學(xué)界還在討論中,。”Sheng說到,而原因正是上面提到的,,大模型一次的訓(xùn)練成本實(shí)在太過高昂,,能得到什么結(jié)果也是未定之?dāng)?shù),很少有人愿意冒險,。國內(nèi)相關(guān)方向的玩家一度傾向使用大小模型協(xié)同配合的方法提高AI工具效果,,因為傳統(tǒng)觀點(diǎn)認(rèn)為,在規(guī)模相對較小的模型上進(jìn)行訓(xùn)練,,效果并不一定比大模型差,。而不止一位AI方向的從業(yè)者也表示,過去業(yè)內(nèi)對人工標(biāo)記數(shù)據(jù)的重視也遠(yuǎn)遠(yuǎn)不夠,,大家沒料到ChatGPT采用的基于人類反饋的強(qiáng)化學(xué)習(xí)效果會如此之好,。
直到OpenAI推出了ChatGPT。
“有多少人工,,就有多少智能,。”這是人工智能領(lǐng)域經(jīng)常被拿來調(diào)侃的一句話,,用來形容ChatGPT再合適不過,。作為預(yù)訓(xùn)練大模型,它很好的體現(xiàn)了“大”這個字,。一方面,,相比GPT1,GPT3的參數(shù)規(guī)模提升了將近1500倍,。另一方面,,由于運(yùn)用了所謂的“自監(jiān)督學(xué)習(xí)(self-supervised learning)”機(jī)制,模型可以使用互聯(lián)網(wǎng)上海量的文本數(shù)據(jù)進(jìn)行訓(xùn)練,。
這種級別的大模型是前所未見的,。
“最近的研究告訴我們,當(dāng)模型達(dá)到一定規(guī)模后,,會有 emergent ability(突現(xiàn)能力)的東西出現(xiàn),。”Sheng說到,。
某種程度上講,,ChatGPT 的開發(fā)者 OpenAI 也是在賭博,沒有人知道這條路究竟能不能走通,,而正是它們持之以恒不惜血本的投入,,最終證明了預(yù)訓(xùn)練大模型擁有一般模型所不具備的認(rèn)知理解能力和泛化能力。換而言之,,預(yù)訓(xùn)練大模型和人們理想中的AI“通用模型”非常相似,。
不像是AlphaGo專門針對圍棋度身定做,,ChatGPT不是針對一個特定的狹窄領(lǐng)域問題開發(fā)出來的AI工具,相反,,它可能更像某種尚顯稚嫩的通用AI計算模型,,有回答開放問題的能力,顯示出可被靈活部署應(yīng)用在各種領(lǐng)域的潛力,。
這正是ChatGPT重要的原因,,它向人們展示了預(yù)訓(xùn)練大模型的強(qiáng)大威力。這意味著第三次AI浪潮在經(jīng)過十多年的發(fā)展后,,走到一個關(guān)鍵節(jié)點(diǎn),。
“ChatGPT / GPT-3.5 是一種劃時代的產(chǎn)物,它與之前常見的語言模型幾乎是導(dǎo)彈與弓箭的區(qū)別,,一定要引起最高程度的重視,。”一篇試圖幫助開源社區(qū)復(fù)現(xiàn)GPT3.5技術(shù)路線圖的文章在開篇就嚴(yán)肅指出了這一點(diǎn),。(https://zhuanlan.zhihu.com/p/593519656)
Sheng則把ChatGPT的誕生比作萊特兄弟發(fā)明飛機(jī):“大家都知道飛機(jī)理論上是可以做出來的,,但從來沒人真的見過飛機(jī)。ChatGPT就像是有人突然把飛機(jī)擺到你面前,,雖然它可能只能飛100公尺,,很容易有故障,但它出現(xiàn)了,。”
Bigger than bigger,,大模型的潛力還有多少?
同ChatGPT揭示的AI發(fā)展浪潮中的關(guān)鍵節(jié)點(diǎn)的意義相比,,ChatGPT本身的缺陷和孱弱的商業(yè)化前景都顯得渺小了不少。更何況,,對許多從業(yè)者來說,,ChatGPT暴露出來的缺點(diǎn)并非不可解決。
其中一個為許多人指摘的是所謂數(shù)據(jù)庫時限問題,。ChatGPT訓(xùn)練是基于一個固定的數(shù)據(jù)庫,,截止日期是2021年9月,也就是說ChatGPT無法掌握從那以后世界上發(fā)生的任何事的信息,,從iPhone 14的發(fā)布到美國期中選舉,,甚至今天的天氣狀況都不行,在這個方面,,ChatGPT的表現(xiàn)甚至趕不上時下任何一款智能語音助手,。
但從技術(shù)層面這個問題并不難解決。實(shí)際上,,根據(jù)外媒爆料,,和Open AI 達(dá)成戰(zhàn)略合作關(guān)系的微軟即將在3月推出具有AI對話能力的新版必應(yīng)Bing,,它的原理正是將搜索引擎同ChatGPT的能力相結(jié)合,甚至,,微軟還打算在Office 套件中引入相應(yīng)的能力,。
最為引人關(guān)注的成本問題,在算法層面同樣有許多優(yōu)化迭代的思路,。比如,,既然ChatGPT在回答問題過程中通過專門的針對訓(xùn)練很好展示了機(jī)器模擬人行為的能力,那么在算法層面,,讓ChatGPT通過模仿人查閱資訊的方式,,在涉及純粹知識和信息的問題時不再調(diào)用本身數(shù)據(jù)庫而是直接從網(wǎng)絡(luò)抓取內(nèi)容將是非常值得探索的方向。如此一來,,大模型可以在不降低自身表現(xiàn)的情況下縮小規(guī)模,,訓(xùn)練成本也將隨之降低。
至于商業(yè)化落地場景,,除了已經(jīng)比較確定的文本生成,、智能助手領(lǐng)域外,實(shí)事求是的說,,還有大片的荒蕪地帶亟待開發(fā),,但不少從業(yè)者都表示了樂觀。
“難的是從0到1的原始創(chuàng)新,,至于后面的都不是問題,。”一位供職于大廠的AI研究從業(yè)者說道,,“尤其在中國,,市場這么大,大家又這么卷,,既然大模型的路子被證明是可行的,,那么很快所有的聰明人都會加入進(jìn)來?!盨heng同樣預(yù)計,,短則一兩年,就會出現(xiàn)基于預(yù)訓(xùn)練大模型的商業(yè)化產(chǎn)品,。
必須攀登的山峰
事實(shí)上,,今年在投資領(lǐng)域,AI是少有的異軍突起的熱門賽道,。然而成本像一道緊箍咒,,束縛著每個自身不具有預(yù)訓(xùn)練大模型開發(fā)能力的玩家。
ChatGPT這樣級別的預(yù)訓(xùn)練大模型跑一次的成本是千萬美元級別,,而將其商業(yè)化部署,,落地到類似聊天機(jī)器人這樣多用戶高并發(fā)任務(wù)中,,成本只會更高。小冰CEO李笛給出的一個估計數(shù)字是3億每天,。這也就意味著,,國內(nèi)夠資格玩這場燒錢游戲的只能是極個別組織,大部分的初創(chuàng)企業(yè),,乃至許多高校,,都會被這樣的高昂成本“勸退”。
Sun 是來自一家國內(nèi)一線投資機(jī)構(gòu)的投資經(jīng)理,,在看過無數(shù)AI相關(guān)項目的PPT后,,他今年一次都沒有出手:“商業(yè)化項目是很現(xiàn)實(shí)的,你是不是掌握了核心技術(shù),?你的競爭壁壘又有多高,?”
很少有中國企業(yè)能夠回應(yīng)這樣的詰問。
在這種情況下,,想要讓產(chǎn)品具有AI能力,,只能調(diào)用公開的大模型接口(比如GPT3.0),等于讓自己的核心能力掌握在別人手中,。
一個非常殘酷的例子是Jasper.AI,。文本生成領(lǐng)域估值一度高達(dá)15億的Jasper.AI同樣在底層調(diào)用GPT3.0模型,在ChatGPT 幾乎是沒有預(yù)警的橫空出世后,,Jasper的業(yè)務(wù)立刻受到?jīng)_擊(這個故事被the information 寫成了一篇報道 ),,因為Jasper 的收費(fèi)計劃最便宜的也高達(dá)29美元,且只能生成20000個單詞,,相比之下,,ChatGPT的使用成本簡直可以忽略不計,而交互和效果甚至更好,。
更何況,,OpenAI本身也面臨著經(jīng)營壓力。從OpenAI內(nèi)部傳出的消息說,,預(yù)訓(xùn)練大模型的成本之高,OpenAI同樣也叫苦連天,,從GPT3.0后OpenAI的模型不再開源,,而是力推其訂閱付費(fèi)服務(wù)(Jasper即是向OpenAI繳納一定的費(fèi)用從而獲得GPT調(diào)用接口)。
開發(fā)屬于自己的大模型,,顯然是每個在AI領(lǐng)域有野心的企業(yè)所應(yīng)該做的事,。
國外們的巨頭行動很快,除了OpenAI,,提出transformer模型的Google同樣擁有專門針對對話應(yīng)用的大語言模型LaMDA和多模態(tài)任務(wù)模型MUM,,這兩個模型被認(rèn)為與ChatGPT擁有相同的能力,。而在硅谷,像Perplexity,、YouChat這樣的創(chuàng)業(yè)公司也正在大預(yù)言模型的基礎(chǔ)上開發(fā)新的聊天機(jī)器人,。OpenAI也預(yù)示了GPT4.0的存在,從版本號上就能看出,,屆時這個業(yè)界領(lǐng)先的大語言模型將有進(jìn)一步的能力提升,。
因此對中國來說,時不我待,,預(yù)訓(xùn)練大模型是一塊必須啃下來的硬骨頭,,中國絕不能錯過這場AI“軍備競賽”。不僅因為一味模仿或者尋求開源模型接口支持,,等于讓別人始終掌握掐脖子的科技主動權(quán),,同時也將在未來的AI產(chǎn)業(yè)競爭中處于不利地位。
Sun舉了個或許不太貼切的例子:質(zhì)能方程在1905年就由愛因斯坦提出,,原子彈在40年后的1945年由美國人試爆成功,,而新中國為了掌握這項技術(shù),又花了近20年時間,。
一日千里的AI技術(shù)發(fā)展不會給中國這么長的追趕時間,。
好消息是,AI技術(shù)并不像芯片制造一樣有著高不可攀的技術(shù)壁壘,,盡管沒有公布ChatGPT的論文,,但不止一位AI工程師表示,僅靠現(xiàn)在公開的知識,,頂級AI工程團(tuán)隊很大概率就能復(fù)現(xiàn)和ChatGPT差不多的模型,,因為“技術(shù)本身都是現(xiàn)成的?!?/p>
壞消息則是,,留給我們的時間已經(jīng)不多。
如果說ChatGPT誕生來自巨量資金的投入,、充分的技術(shù)和人才儲備,,這些條件國內(nèi)巨頭們尚能夠勉強(qiáng)滿足的話,那么隨著時間推移,,如果不在目前這個非常重要的機(jī)會窗口期迎頭趕上,,算法迭代所累積的經(jīng)驗將給以O(shè)penAI為代表的AI公司帶來結(jié)構(gòu)性的技術(shù)壁壘與代差,這種代際差一旦形成,,再想追趕將分外吃力,。
雖然機(jī)器本質(zhì)上仍然無法思考或創(chuàng)新,但預(yù)訓(xùn)練大模型“涌現(xiàn)”出的“智能”以及它出色的泛化能力,,將使得AI產(chǎn)業(yè)本身不再成為一個賽道,,而是演變?yōu)轭愃剖?、電網(wǎng)一樣的基礎(chǔ)生產(chǎn)力資源,徹底改變整個信息產(chǎn)業(yè)的格局,。
經(jīng)過十多年的發(fā)展,,基于深度學(xué)習(xí)框架的AI浪潮已經(jīng)找到了一個明確的發(fā)力方向,隨之而來的將會是如同西部掘金大潮一般的熱烈景象,,無數(shù)機(jī)會和突破將涌現(xiàn)出來,,想要在這場烈火烹油的AI革命中跟上,我們必須擁有屬于自己的ChatGPT,。否則讓它跑太遠(yuǎn),,再追就來不及了。
參考資料:
ChatGPT進(jìn)化的秘密
https://zhuanlan.zhihu.com/p/593519656
The Best Little Unicorn in Texas: Jasper Was Winning the AI Race—Then ChatGPT Blew Up the Whole Game
更多信息可以來這里獲取==>>電子技術(shù)應(yīng)用-AET<<