《電子技術應用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 【ChatGPT專題】ChatGPT火爆,,背后的核心邏輯到底是什么,?

【ChatGPT專題】ChatGPT火爆,背后的核心邏輯到底是什么?

2023-02-15
來源:一起學嵌入式
關鍵詞: ChatGPT AIGC OpenAI

  2022年12月份的時候,,ChatGPT還只是個被人各種撩的聊天工具,。但進入2023年后,,已經向著效率工具邁進了,。

  微軟宣布正和ChatGPT開發(fā)團隊OpenAI進行洽談,投資百億美元,,并計劃把這個工具整合到云服務,、搜索引擎、甚至office中,。海外高校,、學術機構,也興起了關于用ChatGPT寫論文是否合規(guī)的大討論,;咨詢公司也開始擔憂是否會被搶飯碗,。

  毫無疑問,ChatGPT的應用熱情,,已經被點燃,;應用場景也不斷拓展,。但ChatGPT并不是一蹴而就,,以更廣闊的的視野來看,這背后是AIGC“智慧涌現”的大浪潮。那么,,AIGC的發(fā)展節(jié)點有哪些,?企業(yè)競爭靠什么?

  AIGC是如何一步步突破的,?

  AI懂創(chuàng)作,、會畫畫,可以說是人工智能的一個“跨越式”提升,。雖然人工智能在生活中不斷普及,,比如我們習慣了機器代替人去搬運重物、制造精密的產品,、完成復雜的計算等等,。但是,如果人工智能更接近人,,那就必須具備人類“創(chuàng)作”的能力,。這就是AIGC的意義。

  AI能力的提升,,并不是一蹴而就,,而大部分則經歷了“模型突破-大幅提升-規(guī)模化生產-遇到障礙-再模型突破-大幅提升”的循環(huán)發(fā)展,。而要實現落地,、走進人類生活,則必須具備“規(guī)?;a”的能力,,在資源消耗、學習門檻等方面大幅降低到平民化,。

  比如以AI畫畫為例,,則經歷了三個關鍵節(jié)點:

  第一個節(jié)點,早期突破:2014年,,對抗生成網絡(GAN)誕生,,真正“教會”AI自己畫畫。

  GAN包含兩個模型,,一個是生成網絡G,、一個是判別網絡D。G負責把接收到的隨機噪聲生成圖片,,D則要判斷這張圖是G畫的,、還是現實世界就存在的。G,、D互相博弈,,能力也不斷提升,,而當D不再能判斷出G生成的圖片時,訓練就達到了平衡,。

  GAN的開創(chuàng)性在于,,精巧地設計了一種“自監(jiān)督學習”方式,跳出了以往監(jiān)督學習需要大量標簽數據的應用困境,,可以廣泛應用于圖像生成,、風格遷移,、AI藝術和黑白老照片上色修復,。

  第二個節(jié)點,大幅提升:2020年,,一篇關于擴散模型(Diffusion Model)的學術論文,,大幅提升AI的畫畫水平,。

  擴散模型的原理是“先增噪后降噪”。首先給現有的圖像逐步施加高斯噪聲,,直到圖像被完全破壞,,然后再根據給定的高斯噪聲,逆向逐步還原出原圖,。當模型訓練完成后,,輸入一個隨機的高斯噪聲,便能“無中生有”出一張圖像了,。

  這樣的設計大大降低了模型訓練難度,,突破了GAN模型的局限,在逼真的基礎上兼具多樣性,,也就能夠更快,、更穩(wěn)定的生成圖片。

  第三個節(jié)點,,批量生產:2022年夏天誕生的Stable Diffusion,,讓高大上的學術理論變得“接地氣”。

  去年8月,,Stability AI將擴散過程放到更低維度的潛空間(Latent Diffusion),,從而開發(fā)出了Stable Diffusion模型。這個模型帶來的提升,,在于資源消耗大幅降低,,消費級顯卡就可以驅動的,可以操作也更為方便,,普通人也可以體會到人工智能驚艷的創(chuàng)作能力,。而且開發(fā)團隊還把所有代碼、模型和權重參數庫都進行了開源,,踐行了Geek的共享精神,、去中心化主義,。

  門檻降低、效果提升,,因此,大受歡迎,。發(fā)布10天后,,活躍數據達到了每天1700萬張,如果都用A4紙打印出來疊一起,,相當于一座52層高的大樓,。

  共享,也是Stability AI的另一特色,。在開源社區(qū)中,,除了更小的內存和更快的速度,Stable Diffusion收獲了更完善的指南與教程,、共享提示詞,、新UI,也依靠集體的智慧,,走進了Photoshop,、Figma等經典軟件,匯入創(chuàng)作者們的既有工作流中,??芍^是,依靠群眾,、回饋群眾,。

  從技術實現突破、到技術提升,、再到規(guī)?;档烷T檻,AI創(chuàng)作能力也不斷提升,。2022年10月,,美國一名男子用AI繪畫工具Midjourney,生成了一幅名為《太空歌劇院》的作品,,并獲得了第一名,。這引起了一波不小的爭論,也終于形成了一條新賽道,。于是,,2022年以AI繪畫為代表的各種生成式AI工具,如雨后春筍般瘋狂冒尖,,比如盜夢師,、意間AI,、6pen、novelAI等等,。

  而在文本AI領域也是如此,。如今大火的ChatGPT則是基于GPT3.5模型,已經迭代了4次,。而對話一次的平均成本為0.01-0.2美元,,也就是六毛到一塊錢人民幣,成本依然需要不斷降低,。但整體而言,,無論畫畫、還是聊天,,AI已經體現出智慧涌現,。

  如何成為浪潮寵兒?

  Stability AI的創(chuàng)始人Emad認為,,圖像才是殺手級應用,。

  圖像模型可以迅速創(chuàng)造,并引導人們迅速消費,,同時又能以較低成本快速整合到不同領域,,從而快速普及,掀起浪潮,。而事實上,,確實許多創(chuàng)業(yè)者涌入了這些領域。AIGC成為了幣圈之后的投資新焦點,。在 GPT-3 發(fā)布的兩年內,,風投資本對 AIGC 的投資增長了四倍,在 2022 年更是達到了 21 億美元,。

微信截圖_20230215160938.png

  公司增多,,投資增多,但并不是每家企業(yè)都能活得很好,。比如2022年底,,僅創(chuàng)立4個月的AI繪畫公司StockAI就停止了運營。公司CEO表示,,主要是因為商業(yè)化模式不成熟,,目前的付費用戶群體無法覆蓋高昂的運營成本。雖然他也表明會在今年1月份推出全新的平臺,,但從透露的信息來看,,新平臺已不會有需要大量算力的AI圖片生成功能了。

  那么,,什么樣的企業(yè),,才是這波浪潮的“寵兒”,?

  首先,無疑是掌握核心前沿技術的行業(yè)引領者,。全球TOP3的人工智能研究機構,,都在各出奇招、爭奪AIGC主導地位,。

  OpenAI是文字生成領域的領航員,。不光吸引了“生成對抗網絡之父”Ian Goodfellow加盟,還早早獲得了微軟的10億美元投資,。從GPT到GPT3.5,,OpenAI不斷迭代,,也不斷帶給行業(yè)驚喜,。這一次的ChatGPT更加獲得了微軟的認可。而通過開放GPT-3受控API的模式,,OpenAI也將賦能更多公司和創(chuàng)業(yè)者,。

  DeepMind是通用型AI的探路人。2016年,,AlphaGo擊敗人類圍棋的最高代表韓國棋手李世石,,Go背后正是谷歌旗下的DeepMind。但DeepMind的目標并不是下棋,,而是通用型AI,,比如能預測蛋白質結構的AlphaFold、能解決復雜數學計算的AlphaTensor等等,。但這些AI始終面臨著一個瓶頸,,即無法像人類一樣進行“無中生有”的創(chuàng)作。

  這兩年,,DeepMind終于向通用型AI又推近了一步,。在對話機器人Sparrow、劇本創(chuàng)作機器人Dramatron等背后的語言大模型中找到靈感,,構建了會聊天,、會干活、會玩游戲的Gato,。

  Meta在加速AI的商業(yè)化落地,。重組調整AI部門,將其分布式地下放到各實際業(yè)務中,,而FAIR被并入元宇宙核心部門Reality Labs Research,,成為新場景探索者的一員。

  也許同行相輕,,Meta首席人工智能科學家Yann LeCun對ChatGPT的評價并不高,,他認為從底層技術上看,,ChatGPT并不是什么創(chuàng)新性、革命性的發(fā)明,,除了谷歌和Meta,,至少有六家初創(chuàng)公司擁有類似的技術。

  當被問及Meta的AI愿景時,,LeCun為FAIR畫下了“生成藝術”的大餅,。他提出,Facebook上有1200萬商鋪在投放廣告,,其中多是沒有什么資源定制廣告的夫妻店,,Meta將通過能夠自動生成宣傳資料的AI幫助他們做更好的推廣。

  其次,,另一類寵兒,,則是押對應用場景的企業(yè)們,在“繪畫”之外吸納了不少資本支持與人才投入,。

  在所有內容生成式AI中,,輸出文字和音樂的已經先一步找到了財富密碼。最早出現的AI生成文字在遍歷了寫新聞稿,、寫詩,、寫小劇本等頗受關注的應用方式后,終于在營銷場景找到了能夠穩(wěn)定變現的商業(yè)模式,,成為寫作輔助的效率工具,,幫助從業(yè)者寫郵件、文案,、甚至策劃,。專注于音樂的LifeScore,則讓人工智能學會了即時編曲,,按照場景,、長度的需要,組織藝術家同事人工創(chuàng)作,、演奏的音樂素材,,在人類的創(chuàng)作流程中找到了自己的位置。

  能夠互動的聊天機器人,,則在客服和游戲這兩個相去甚遠的行業(yè)分別“打工”,。區(qū)別于當下只會提供預設問題解答,有時還會答非所問的“智能客服”,,真正的AI需要結合用戶的行為和上下文來理解人類的真正意圖,。在游戲領域,AI則被用來協(xié)助人類,高效地創(chuàng)造內容豐富,、體驗良好的游戲內容,,從而延長用戶的游戲時間。

  顯然,,寵兒是少的,。而經歷了過去一年多“科技股大回落”后,投資者們也謹慎一些了,,當下的AIGC雖然很好,,但等大模型出來也許更香。

  大模型,,也許是企業(yè)比拼的護城河

  模型是人工智能的靈魂,,本質上它是一套計算公式和數學模型?!皡怠笨梢钥醋鍪悄P屠锏囊粋€個公式,,這意味著,參數量越大,,模型越復雜,,做出來的預測就越準確,。

  小模型就像“偏科的機器”,,只學習針對特定應用場景的有限數據,“舉一反三”能力不足,,一些智能產品被用戶調侃為“人工智障”的情況時有發(fā)生,。

  大模型就是參數量極大的模型,目前業(yè)界主流的AIGC模型都是千億級,、萬億級參數量的水平,。通過學習各行各業(yè)各類數據,除了能給出相較于小模型更準確的預測結果之外,,它也展現出了驚人的泛化能力,、遷移能力,產出內容質量更高,、更智能,,這也是當前AIGC工具讓人眼前一亮的原因。

  而大模型的快速發(fā)展,,對行業(yè)發(fā)展起到了明顯的推動作用,。例如ChatGPT是基于GPT-3模型進行優(yōu)化所產生的,引領AI繪畫發(fā)展的DALL·E 2也離不開GPT-3的貢獻,。類似的還有Deepmind的Chinchilla,、百度的文心大模型等等。

  大模型,很大概率是行業(yè)淘汰與否的判斷要素,。

  首先,,訓練數據量大,OpenAI為了讓GPT-3的表現更接近人類,,用了45TB的數據量,、近 1 萬億個單詞來訓練它,大概是1351萬本牛津詞典,。

微信截圖_20230215161104.png

  這就帶來了兩個問題:巨大的算力需求與資金消耗,。訓練和運行模型都需要龐大的算力,有研究估測,,訓練 1750 億參數語言大模型 GPT-3,,需要有上萬個 CPU/GPU 24 小時不間輸入數據,所需能耗相當于開車往返地球和月球,,且一次運算就要花費450萬美元,。

  國內也不例外。目前國內自研的大模型包括百度的文心大模型,、阿里的M6大模型,、騰訊的混元大模型,針對中文語境,,國內廠商的表現要比國外大廠要好得多,。而且國內的大模型發(fā)展速度也很驚人。

  采用稀疏MoE結構的M6大模型,,2021年3月僅1000億參數,,3個月后就達到了萬億級,又過了五個月模型參數達到了十萬億級,,成為全球最大的AI預訓練模型,。混元模型也是萬億級別,,成本大幅降低,,最快用256張卡,1天內就能訓練完成,。而采用稠密結構(可以粗糙理解是和稀疏相比,,密度更大)的文心大模型,2021年,,參數規(guī)模達到2600億,。2022年,百度又先后發(fā)布了數十個大模型,,其中有11個行業(yè)大模型,。

  這樣高的研發(fā)門檻,,注定目前主流的大模型多由大企業(yè)、或是背靠大企業(yè)的研究機構掌握,,中小企業(yè)只能望而卻步,。因此,大模型,,也就成為企業(yè)的“護城河”,。

  但進行大模型的研發(fā)只是“成功第一步”,還有三個維度的比拼,,也非常重要,。

  一是數據資源。有研究表明,,到2026年就沒有更多高質量的數據可以訓練AI了,。此外,基于現實生活中已有的數據來訓練模型只能解決一些已知問題,,對于一些我們還沒有發(fā)現的,、潛在的、未知的問題,,現在的模型未必能解決,。因此有一些研究人員提出了合成數據的概念,即通過計算機程序人工合成的數據,,一方面補充高質量的訓練數據,,另一方面填補一些極端或者邊緣的案例,增加模型的可靠性,。

  二是綠色發(fā)展,。雖然模型越大效果越好,,但無限“大”下去并不經濟,,對自然資源消耗、數據資源都帶來巨大壓力,。而過高的資源消耗,,也不利于平民化普及。

  三是應用場景,。商業(yè)和純理論研究不同,,不能拿著技術的錘子,瞎找釘子,,而是要結合應用來發(fā)展技術,。而國內廠商要想拿出Stable Diffusion、ChatGPT這樣的殺手級應用,,還需要更多的思考和努力:

  跳出“跑分”怪圈,,找到應用場景,,進行模型“瘦身”,甚至,,將模型開源,、形成生態(tài),利用群眾的智慧,、為群眾服務,。

  尾聲

  隨著微軟對ChatGPT的關注,產業(yè),、投資圈都熱了起來,,美股BuzzFeed因為要采用ChatGPT技術就實現了兩天漲三倍的壯舉;H股,、A股也迎風而動,,不少上市公司也表態(tài)具備技術積累。

  躁動當然是好事兒,,科技創(chuàng)新,,就是要令人心潮澎湃。我國廣闊的產業(yè),,是應用開花的土壤,。但與此同時,國內的AIGC也存在著隱憂,,比如高算力的芯片,,如何造出來?

  另一方面,,科技創(chuàng)新,,也要牢記Gartner曲線揭示的規(guī)律:萌發(fā)期→泡沫期→泡沫破裂期→穩(wěn)步發(fā)展期→穩(wěn)定產出期。只有躁動,,沒有篤定,、沒有低谷時的忍耐,也絕不可能成功的,。

  適度的泡沫,,成為驅動力;過度的泡沫,,也許會劣幣驅逐良幣,。但至少目前,我們和海外相比,,幾乎在同一起跑線,,值得充滿熱情的期待。

  敬請關注電子技術應用2023年2月22日==>>商業(yè)航天研討會<<

微信圖片_20230210170337.jpg


本站內容除特別聲明的原創(chuàng)文章之外,,轉載內容只為傳遞更多信息,,并不代表本網站贊同其觀點,。轉載的所有的文章、圖片,、音/視頻文件等資料的版權歸版權所有權人所有,。本站采用的非本站原創(chuàng)文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容,、版權和其它問題,,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,,避免給雙方造成不必要的經濟損失,。聯系電話:010-82306118;郵箱:[email protected],。