《電子技術應用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > ChatGPT掀AI熱潮,這些芯片廠商將“狂飆”

ChatGPT掀AI熱潮,,這些芯片廠商將“狂飆”

2023-02-14
來源:集微網(wǎng)
關鍵詞: ChatGPT AI 芯片

  近期,人工智能聊天機器人ChatGPT用戶數(shù)不斷攀升,,從100萬到1000萬,再到1億,僅用兩個月,,刷新了人工智能聊天程序用戶數(shù)增長的記錄,。

  ChatGPT有可能改變搜尋市場的游戲規(guī)則,AI聊天機器人熱潮席卷全球市場,。微軟Bing 搜尋引擎將整合ChatGPT,;Alphabet旗下谷歌搜尋服務將加入AI聊天機器人技術Bard;百度,、阿里巴巴,、“俄羅斯版谷歌”Yandex、韓國Naver,、Kakao等也紛紛涌入,,計劃發(fā)布各自的AI聊天機器人。

  AI聊天機器人需要大規(guī)模數(shù)據(jù)學習和快速運算,,對AI芯片的需求將暴增,給低迷的半導體行業(yè)帶來一股暖流,,英偉達,、三星電子、SK海力士等都將受益,。但是英偉達服務器用AI芯片方案存在發(fā)熱和功耗過大的問題,,谷歌、亞馬遜AWS,、三星電子,、SK海力士、百度等科技巨頭廠商也在開發(fā)各自的AI專用芯片,,試圖在提升性能的同時降低功耗,,搶占AI芯片新高地。

  半導體行業(yè)人士指出,,盡管目前傳統(tǒng)AI芯片占據(jù)主流,,AI專用芯片蓬勃發(fā)展,但是它們都遇到了物理極限,,AI芯片的未來可能是量子芯片,。

  英偉達是ChatGPT熱潮最大受益者

  英偉達是此次ChatGPT熱潮的最大受益者,因為英偉達用于服務器的AI芯片對于超大型AI 模型的學習和推理至關重要,,幾乎壟斷全球服務器用AI芯片市場,。

  Open AI表示,ChatGPT 是與英偉達和微軟合作完成的超級AI,。準確地說,,微軟已經(jīng)與英偉達合作,在其云(Azure HPC Cloud)中構建了由大量AI芯片組成的超級計算機(HPC)集群,,并將其提供給OpenAI,。

  據(jù)了解,,用于 ChatGTP 學習和推理的超級計算機擁有 285000個CPU(中央處理器)內(nèi)核和10000多顆AI芯片。事實上,,如果你問ChatGPT是如何學習的,,它會回答,“它正在使用英偉達AI芯片學習和執(zhí)行,?!?/p>

  OpenAI CEO Sam Altman表示,ChatGPT處理用戶查詢的每筆成本約為2美分,。這是引入和使用英偉達AI芯片所需的成本,。如果ChatGPT用戶數(shù)量增加,云和AI芯片的使用將不可避免地增加,,這將增加英偉達的銷售額和營業(yè)利潤,。

  研究人員Uh Gyu-jin表示:“如果說游戲?qū)τミ_的增長作出了貢獻,因為高性能GPU被用來驅(qū)動現(xiàn)有的高端游戲,,那么最近數(shù)據(jù)中心銷售的增長是急劇的,,因為GPU已被用作數(shù)據(jù)中心加速器?!彪S著超大型人工智能的需求增加,,英偉達的銷售額和營業(yè)利潤有望獲得大幅增長。

  投資者也注意到了這一點,,并將英偉達列為ChatGPT熱潮的最大受益者,。花旗集團分析師Atif Malik預估,,ChatGPT可能會在未來12個月內(nèi)為英偉達帶來30億美元至110億美元的銷售額,。

  事實上,從今年開始,,英偉達在數(shù)據(jù)中心領域的銷售額有望首次超過游戲,,占比達到57%。隨著人工智能概念被引入數(shù)據(jù)中心,,其銷售額占比將大幅提升,。特別是在應用人工智能深度學習技術時,收集和分析大規(guī)模信息的云服務必須得到有效管理,。因此,,英偉達GPU安裝在需要深度學習技術的地方越來越多,例如,,提供云服務的亞馬遜,、微軟、IBM和阿里巴巴。

  英特爾和AMD等其他半導體公司也生產(chǎn)用于服務器的AI芯片,,但沒有英偉達AI芯片并行處理技術(CUDA)的優(yōu)勢,,它們的市場份額僅個位數(shù);而蘋果,、高通等都專注于為智能手機,、平板電腦和物聯(lián)網(wǎng)等邊緣設備開發(fā)AI芯片,因此英偉達有望在服務器用的AI芯片領域繼續(xù)占據(jù)主導地位,。

  HBM需求攀升利好三星,、SK海力士

  英偉達GPU搭載了包括高帶寬存儲器(HBM)在內(nèi)的大量DRAM。三星電子,、SK 海力士,、美光等有望直接或間接受益于英偉達AI芯片需求的快速增長。因為AI半導體需要“HBM3”才能學習和推理,,而 AI芯片僅用于推理需要“GDDR6”和“GDDR7”存儲器,。

  ChatGPT等AI聊天機器人執(zhí)行大量計算的時候需要高性能和大容量內(nèi)存的支持。隨著AI聊天機器人服務市場爆發(fā),,對內(nèi)存的需求將會增加,。三星電子和 SK 海力士一致認為,“ChatGPT 等AI聊天機器人服務中長期將對內(nèi)存半導體市場產(chǎn)生積極影響,。”

  三星電子指出,, HBM數(shù)據(jù)處理速度比DRAM快,,為GPU和人工智能加速器提供數(shù)據(jù)的高性能高帶寬內(nèi)存 (HBM) 的需求將會擴大。從長遠來看,,隨著AI聊天機器人服務的擴展,,對用于CPU的128GB 或更大容量的高性能 HBM 和高容量服務器 DRAM 的需求預計會增加。

  SK海力士解釋說,,從內(nèi)存的角度來看,,AI聊天機器人需要高性能的DRAM和高性能的計算存儲設備,可能加快市場重心轉(zhuǎn)向大容量服務器內(nèi)存的時間,。SK海力士提到,,服務器內(nèi)存從64GB遷移到128GB的速度可能更快。

  HBM可以消除 CPU,、GPU 和內(nèi)存之間的性能差距造成的瓶頸,,補充了現(xiàn)有 DRAM 的局限性,被認為是一種具有前景的下一代內(nèi)存產(chǎn)品,。CPU和GPU的性能每年都在大幅提升,,但支撐它們的內(nèi)存半導體性能卻一直相對滯后,HBM 作為替代方案應運而生。目前,,通過與中央處理器 (CPU) 和圖形處理器 (GPU) 配對,,可以明顯提高服務器性能的HBM訂單正在明顯增加。今年第一季度,,HBM供應商三星電子,、SK海力士相關業(yè)務咨詢呈指數(shù)級增長。特別是SK海力士,,客戶的需求電話紛至沓來,。一位業(yè)內(nèi)人士透露,“目前,,英偉達在大部分服務器 GPU產(chǎn)品中都使用 SK 海力士HBM3”,。

  HBM唯一缺點是價格高。HBM盡管性能出色,,但平均售價至少比最高性能的 DRAM 高出三倍,,因為生產(chǎn)過程復雜且需要高水平的工藝。HBM2價格是16Gb DRAM的兩倍多,,SK海力士HBM3價格已飆升了五倍,。從存儲半導體企業(yè)的角度來看,HBM是一個高附加值領域,,供應量越大,,利潤率就越高。

  降功耗需開發(fā)專用AI芯片

  像人腦一樣具有大容量學習能力的快速計算并產(chǎn)生結果的超級人工智能系統(tǒng)需要低功耗,、高速的人工智能半導體,。但是采用英偉達GPU的計算機系統(tǒng)在運行超級人工智能時存在一定技術瓶頸,存在性能下降,、發(fā)熱和功耗過大的問題,。一位半導體行業(yè)人士表示,“僅以目前的硬件實現(xiàn)人類水平的人工智能是有限度的,,因此各大公司都將重點放在低功耗和速度提升上,。”

  GPU可能會因為與CPU之間的性能差異而出現(xiàn)瓶頸,。也就是說,,無論GPU多快結束計算,都要完成CPU的運算才能輸出,,因此整體性能會受到限制,。對此,有人提出了在存儲器半導體上疊加高運算的智能型半導體(PIM)的必要性,。AI芯片可以在內(nèi)存內(nèi)部直接進行AI運算,,具有速度快,、能耗低的優(yōu)點。在存儲芯片領域具有優(yōu)勢的韓國決定在2022年至2028年內(nèi)投資4027億韓元開發(fā)PIM芯片,,以加強人工智能芯片技術,。

  實際上,AI專用芯片已經(jīng)成為各國科技巨頭爭奪的下一個技術高地,。

  三星電子,、SK海力士是韓國攻關AI芯片的主力軍。目前,,三星電子正在與韓國學術界,、美國哈佛大學和加拿大蒙特利爾大學合作研發(fā)NPU。去年12月,,三星電子公布了與 Naver 合作開發(fā)數(shù)據(jù)中心 AI芯片的計劃,。SK海力士通過其子公司 Sapion 開發(fā)了性能可與英偉達媲美的AI芯片。目前,,SK 海力士正在開發(fā)下一代 AI芯片,,通過加載HBM3內(nèi)存可以同時進行學習和推理。

  美國微軟,、亞馬遜AWS和谷歌云等科技巨頭正在努力開發(fā)自己的 AI芯片,,以確保在AI和云市場中的霸主地位。目前,,微軟引入了最多的英偉達 AI芯片,,而且還在不斷加碼。亞馬遜AWS和谷歌云在推行雙軌戰(zhàn)略,,在大量引入英偉達 AI芯片的同時開發(fā)自己的AI 芯片“Inferentia”和“TPU(TensorFlow Unit)”,。

  國內(nèi)寒武紀、百度,、比特大陸,、深鑒科技等企業(yè)以及北京大學,、清華大學,、中國科學院等高校紛紛涌入AI芯片領域。寒武紀近兩年發(fā)布第三代云端 AI 芯片思元370,。比特大陸發(fā)布了算豐第三代AI芯片BM1684,。百度云智一體3.0的AI IaaS層核心的昆侖芯已量產(chǎn)數(shù)萬片,實現(xiàn)大規(guī)模商業(yè)化落地,,昆侖芯3代將于2024年初量產(chǎn),。

  全球各國科技巨頭涌入AI芯片市場,將不斷推動AI芯片市場增長,。據(jù)Gartner透露,,2020年AI芯片市場規(guī)模為220億美元,,2023年將擴大2.5倍以上,達到553億美元,;預計2026年將增長至861億美元,。

  AI芯片突破還需量子芯片

  但是目前芯片技術的發(fā)展遇到了物理極限,“摩爾定律”放緩,,除非量子計算等獲得新的突破,,否則AI產(chǎn)業(yè)的發(fā)展步伐可能會停滯不前。韓國電子通信研究院(ETRI)量子技術研究中心高級研究員Park Seong-soo表示,,“ChatGPT也可以用大量的計算資源,,但如果與未來的量子計算機結合,它將成為一個更高智能的人工智能,?!?/p>

  量子計算機被譽為新一輪科技革命的戰(zhàn)略制高點,能夠在眾多關鍵技術領域提供超越經(jīng)典計算機極限的核心計算能力,,在新材料研發(fā),、生物醫(yī)療、金融分析乃至人工智能領域?qū)l(fā)揮重要的作用,。

  但是目前還很難看到量子技術會在10到20年內(nèi)完全突破,,它是如此的困難和不確定。為了克服摩爾定律,,美國IBM計劃在2023年制造一臺擁有1121個量子比特的量子計算機,。韓國SK Telecom 也在發(fā)展其在量子芯片設計能力,2011年成立了量子技術研究所,,進行全面的量子研究,,2018年收購瑞士量子密碼公司IDQ。國內(nèi)的本源量子在2021年交付了第一臺量子計算機,,使我國成為世界上第三個具備量子計算機整機交付能力的國家,。


敬請關注電子技術應用2023年2月22日==>>商業(yè)航天研討會<<

微信圖片_20230210170337.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點,。轉(zhuǎn)載的所有的文章、圖片,、音/視頻文件等資料的版權歸版權所有權人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權者。如涉及作品內(nèi)容,、版權和其它問題,,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,,避免給雙方造成不必要的經(jīng)濟損失,。聯(lián)系電話:010-82306118,;郵箱:[email protected]