《電子技術(shù)應(yīng)用》
您所在的位置:首頁(yè) > 其他 > 業(yè)界動(dòng)態(tài) > 深度學(xué)習(xí)框架只為GPU? 答案在這里

深度學(xué)習(xí)框架只為GPU? 答案在這里

2018-03-22
關(guān)鍵詞: GPU 學(xué)習(xí)框架

  目前大多數(shù)的機(jī)器學(xué)習(xí)是在處理器上完成的,,大多數(shù)機(jī)器學(xué)習(xí)軟件會(huì)針對(duì)GPU進(jìn)行更多的優(yōu)化,,甚至有人認(rèn)為學(xué)習(xí)加速必須在GPU上才能完成,但事實(shí)上無(wú)論是運(yùn)行機(jī)器學(xué)習(xí)的處理器還是優(yōu)化的深度學(xué)習(xí)框架,,都不單只針對(duì)GPU,,代號(hào)為“Skylake”的英特爾至強(qiáng)SP處理器就證明了這一點(diǎn),。

  機(jī)器學(xué)習(xí)軟件在英特爾至強(qiáng)SP系列白金版上的一系列基準(zhǔn)測(cè)試性能表現(xiàn)與在GPU上非常相近,了解了底層架構(gòu)之后,,我們可以看到,,在性能如此接近的情況下,使用GPU加速器更像是在購(gòu)買一種“奢侈品”,用戶在GPU以外還有很多其他的選擇,。毫無(wú)疑問,,在用戶只需要機(jī)器學(xué)習(xí)的情況下,“加速器”在性能和能耗方面更有優(yōu)勢(shì),,大多數(shù)人需要的不只是一臺(tái)“智能的用于機(jī)器學(xué)習(xí)的服務(wù)器”,,那就讓我們來(lái)重點(diǎn)看一下英特爾至強(qiáng)SP 白金級(jí)處理器為什么是最佳的選擇:

  CPU優(yōu)化深度學(xué)習(xí)框架和函數(shù)庫(kù)

  英特爾在基于GPU優(yōu)化的框架中增加了CPU優(yōu)化深度學(xué)習(xí)框架, 打破了深度學(xué)習(xí)框架偏重于GPU而忽視了CPU的行業(yè)現(xiàn)狀,,解決了目前這些框架缺乏CPU優(yōu)化的實(shí)際問題,。

  TensorFlow由谷歌開發(fā),是一個(gè)領(lǐng)先的深度學(xué)習(xí)和機(jī)器學(xué)習(xí)框架,,有面向Linux的處理器優(yōu)化

  Caffe是圖片識(shí)別領(lǐng)域最受歡迎的應(yīng)用之一,,英特爾提供的優(yōu)化可以在CPU運(yùn)行時(shí)提高Caffe的性能

  Torch是當(dāng)下流行的深度學(xué)習(xí)框架,需要在優(yōu)化的CPU上應(yīng)用,,可以通過(guò)英特爾軟件優(yōu)化(比如英特爾至強(qiáng)可擴(kuò)展處理器)提高Torch在CPU上的性能

  Theano是一個(gè)開源的Python庫(kù),,很受機(jī)器學(xué)習(xí)程序員的歡迎,它可以幫助程序員高效地定義,、優(yōu)化和評(píng)估涉及多維陣列的數(shù)學(xué)表達(dá)式

  Neon是一個(gè)基于Python的深度學(xué)習(xí)框架,,目的是在現(xiàn)代深度神經(jīng)網(wǎng)絡(luò)上實(shí)現(xiàn)易用性和可擴(kuò)展性,并致力于在所有硬件上實(shí)現(xiàn)性能的最大化

  MXNet是一個(gè)開源的深度學(xué)習(xí)框架

  Python及其函數(shù)庫(kù)是機(jī)器學(xué)習(xí)應(yīng)用里最受歡迎的基礎(chǔ)組成,,Python加速版過(guò)去幾年里得到了廣泛應(yīng)用,,并且可以直接下載或通過(guò)Conda、yum,、apt-get或Docker images下載

  BigDL是一個(gè)面向Apache Spark的分布式深度學(xué)習(xí)函數(shù)庫(kù),。通過(guò)BigDL用戶可以把自己的深度學(xué)習(xí)應(yīng)用當(dāng)作標(biāo)準(zhǔn)Apache Spark程序來(lái)編寫,直接在現(xiàn)有Apache Spark或Hadoop集群上運(yùn)行,。在Torch基礎(chǔ)上開發(fā)的BigDL可以為深度學(xué)習(xí)提供綜合性支持:包括數(shù)值計(jì)算(通過(guò)Tensor)和高級(jí)神經(jīng)網(wǎng)絡(luò),;此外用戶還可以利用BigDL把提前訓(xùn)練的Caffe或Torch模型載入Spark程序。英特爾曾聲稱在一個(gè)單節(jié)點(diǎn)至強(qiáng)處理器上(例如與GPU相比),,BigDL中的處理速度比原始開源Caffe,、Torch或TensorFlow要高一個(gè)數(shù)量級(jí)

  英特爾MKL-DNN是一個(gè)開源的、性能強(qiáng)化的函數(shù)庫(kù),,用于加速在CPU上的深度學(xué)習(xí)框架

  英特爾數(shù)據(jù)分析加速庫(kù)(DAAL)是一個(gè)包含了被優(yōu)化的算法構(gòu)建模塊的開源函數(shù)庫(kù),,針對(duì)大數(shù)據(jù)問題最相關(guān)的數(shù)據(jù)分析階段。這個(gè)函數(shù)庫(kù)適用于當(dāng)下流行的數(shù)據(jù)平臺(tái),,包括Hadoop,、Spark、R和Matlab

  結(jié)果證明了一切,,無(wú)論是TensorFlow,、Caffe,,還是Torch、Theano,,這些深度學(xué)習(xí)框架都針對(duì)英特爾數(shù)學(xué)核心函數(shù)庫(kù)(Intel MKL)和英特爾高級(jí)矢量擴(kuò)展指令集(Intel AVX)進(jìn)行了優(yōu)化,。通過(guò)CPU優(yōu)化,TensorFlow和Caffe基準(zhǔn)測(cè)試中的CPU性能分別提高了72倍和82倍,。

  機(jī)器學(xué)習(xí)加速器

  科技與行業(yè)的發(fā)展都是瞬息萬(wàn)變的,,機(jī)器學(xué)習(xí)的加速器也會(huì)從GPU轉(zhuǎn)向FPGA、ASIC等等,,除非我們永遠(yuǎn)只需要一臺(tái)只能用于機(jī)器學(xué)習(xí)的服務(wù)器,,只要在一臺(tái)服務(wù)器上想實(shí)現(xiàn)可以支持各種的工作負(fù)載,英特爾至強(qiáng)可擴(kuò)展處理器無(wú)疑是最佳的解決方案,。

  加速器的選擇正在變得多元化,,這是整個(gè)行業(yè)的發(fā)展趨勢(shì),多核CPU(英特爾至強(qiáng)融核處理器,,特別是“Knights Mill”版)和FPGA(英特爾至強(qiáng)處理器,,包含Intel/Altera FPGA)都可以提供更靈活的選擇、卓越的性價(jià)比和高能效,。

  基于英特爾至強(qiáng)融核處理器訓(xùn)練或?qū)W習(xí)一個(gè)AlexNet圖片分類系統(tǒng)的速度,是使用NVIDIA GPU的類似配置系統(tǒng)的2.3倍,;英特爾至強(qiáng)融核處理器的性價(jià)比最高可以是GPU解決方案的9倍,,每瓦性能高達(dá)8倍,英特爾Nervana將推出更多專為人工智能開發(fā)的產(chǎn)品,。英特爾至強(qiáng)SP系列處理器為機(jī)器學(xué)習(xí)提供了卓越的性能,,同時(shí)相比其他解決方案也為我們帶來(lái)了更多的功能與選擇,讓我們?cè)诋a(chǎn)品與行業(yè)的發(fā)展中都可以擁有更多可能,。


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn),。轉(zhuǎn)載的所有的文章,、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無(wú)法一一聯(lián)系確認(rèn)版權(quán)者,。如涉及作品內(nèi)容、版權(quán)和其它問題,,請(qǐng)及時(shí)通過(guò)電子郵件或電話通知我們,,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失,。聯(lián)系電話:010-82306118,;郵箱:[email protected],。