《電子技術(shù)應用》
您所在的位置:首頁 > 人工智能 > 解決方案 > 嵌入式邊緣AI應用開發(fā)簡化指南

嵌入式邊緣AI應用開發(fā)簡化指南

2022-03-16
來源:德州儀器
關(guān)鍵詞: AI DNN TI

  如果在沒有嵌入式處理器供應商提供的合適工具和軟件的支持下,,既想設(shè)計高能效的邊緣人工智能(AI)系統(tǒng),同時又要加快產(chǎn)品上市時間,,這項工作難免會冗長乏味,。面臨的一系列挑戰(zhàn)包括選擇恰當?shù)纳疃葘W習模型、針對性能和精度目標對模型進行訓練和優(yōu)化,,以及學習使用在嵌入式邊緣處理器上部署模型的專用工具。

  從模型選擇到在處理器上部署,TI可免費提供相關(guān)工具,、軟件和服務(wù),為您深度神經(jīng)網(wǎng)絡(luò)(DNN)開發(fā)工作流程的每一步保駕護航,。下面讓我們來了解如何不借助手動工具或手動編程來選擇模型,、隨時隨地訓練模型并將其無縫部署到TI處理器上,從而實現(xiàn)硬件加速推理,。

  

1.jpg

  圖1: 邊緣AI應用的開發(fā)流程

  第1步:選擇模型

  邊緣AI系統(tǒng)開發(fā)的首要任務(wù)是選擇合適的DNN模型,,同時要兼顧系統(tǒng)的性能、精度和功耗目標,。GitHub上的TI邊緣AI Model Zoo等工具可助您加速此流程,。

  Model Zoo廣泛匯集了TensorFlow、PyTorch和MXNet框架中常用的開源深度學習模型,。這些模型在公共數(shù)據(jù)集上經(jīng)過預訓練和優(yōu)化,,可以在TI適用于邊緣AI的處理器上高效運行。TI會定期使用開源社區(qū)中的新模型以及TI設(shè)計的模型對Model Zoo進行更新,,為您提供性能和精度經(jīng)過優(yōu)化的廣泛模型選擇,。

  Model Zoo囊括數(shù)百個模型,TI模型選擇工具(如圖1所示)可以幫助您在不編寫任何代碼的情況下,,通過查看和比較性能統(tǒng)計數(shù)據(jù)(如推理吞吐量,、延遲、精度和雙倍數(shù)據(jù)速率帶寬),,快速比較和找到適合您AI任務(wù)的模型,。

  

2.jpg

  圖2:TI 模型選擇工具

  第2步:訓練和優(yōu)化模型

  選擇模型后,下一步是在TI處理器上對其進行訓練或優(yōu)化,,以獲得出色的性能和精度,。憑借我們的軟件架構(gòu)和開發(fā)環(huán)境,您可隨時隨地訓練模型,。

  從TI Model Zoo中選擇模型時,,借助訓練腳本可讓您在自定義數(shù)據(jù)集上為特定任務(wù)快速傳輸和訓練模型,而無需花費較長時間從頭開始訓練或使用手動工具,。訓練腳本,、框架擴展和量化感知培訓工具可幫助您優(yōu)化自己的DNN模型。

  第3步:評估模型性能

  在開發(fā)邊緣AI應用之前,,需要在實際硬件上評估模型性能,。

  TI提供靈活的軟件架構(gòu)和開發(fā)環(huán)境,,您可以在TensorFlow Lite、ONNX RunTime或TVM和支持Neo AI DLR的SageMaker Neo運行環(huán)境引擎三者中選擇習慣的業(yè)界標準Python或C++應用編程接口(API),,只需編寫幾行代碼,,即可隨時隨地訓練自己的模型,并將模型編譯和部署到TI硬件上,。在這些業(yè)界通用運行環(huán)境引擎的后端,,我們的TI深度學習(TIDL)模型編譯和運行環(huán)境工具可讓您針對TI的硬件編譯模型,將編譯后的圖或子圖部署到深度學習硬件加速器上,,并在無需任何手動工具的情況下實現(xiàn)卓越的處理器推理性能,。

  在編譯步驟中,訓練后量化工具可以自動將浮點模型轉(zhuǎn)換為定點模型,。該工具可通過配置文件實現(xiàn)層級混合精度量化(8位和16位),,從而能夠足夠靈活地調(diào)整模型編譯,以獲得出色的性能和精度,。

  不同常用模型的運算方式各不相同,。同樣位于GitHub上的TI邊緣AI基準工具可幫助您為TI Model Zoo中的模型無縫匹配DNN模型功能,并作為自定義模型的參考,。

  評估TI處理器模型性能的方式有兩種:TDA4VM入門套件評估模塊(EVM)或TI Edge AI Cloud,,后者是一項免費在線服務(wù),可支持遠程訪問TDA4VM EVM,,以評估深度學習推理性能。借助針對不同任務(wù)和運行時引擎組合的數(shù)個示例腳本,,五分鐘之內(nèi)便可在TI硬件上編程,、部署和運行加速推理,同時收集基準測試數(shù)據(jù),。

  第4步:部署邊緣AI應用程序

  您可以使用開源Linux?和業(yè)界通用的API來將模型部署到TI硬件上,。然而,將深度學習模型部署到硬件加速器上只是難題的冰山一角,。

  為幫助您快速構(gòu)建高效的邊緣AI應用,,TI采用了GStreamer框架。借助在主機Arm?內(nèi)核上運行的GStreamer插件,,您可以自動將計算密集型任務(wù)的端到端信號鏈加速部署到硬件加速器和數(shù)字信號處理內(nèi)核上,。

  圖2展示了適用于邊緣AI的Linux Processor SDK的軟件棧和組件。

  

3.jpg

  圖3:適用于邊緣AI的Linux Processor SDK組件

  結(jié)語

  如果您對本文中提及的工具感到陌生或有所擔憂,,請放寬心,,因為即使您想要開發(fā)和部署AI模型或構(gòu)建AI應用,也不必成為AI專家,。TI Edge AI Academy能夠幫助您在自學,、課堂環(huán)境中通過測驗學習AI基礎(chǔ)知識,,并深入了解AI系統(tǒng)和軟件編程。實驗室提供了構(gòu)建“Hello World” AI應用的分步代碼,,而帶有攝像頭捕獲和顯示功能的端到端高級應用使您能夠按照自己的節(jié)奏順利開發(fā)AI應用,。

  

  關(guān)于德州儀器(TI)

  德州儀器(TI)(納斯達克股票代碼:TXN)是一家全球性的半導體公司,致力于設(shè)計,、制造,、測試和銷售模擬和嵌入式處理芯片,用于工業(yè),、汽車,、個人電子產(chǎn)品、通信設(shè)備和企業(yè)系統(tǒng)等市場,。我們致力于通過半導體技術(shù)讓電子產(chǎn)品更經(jīng)濟實用,,創(chuàng)造一個更美好的世界。如今,,每一代創(chuàng)新都建立在上一代創(chuàng)新的基礎(chǔ)之上,,使我們的技術(shù)變得更小巧、更快速,、更可靠,、更實惠,從而實現(xiàn)半導體在電子產(chǎn)品領(lǐng)域的廣泛應用,,這就是工程的進步,。這正是我們數(shù)十年來乃至現(xiàn)在一直在做的事。





圖片.jpg


本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,,并不代表本網(wǎng)站贊同其觀點。轉(zhuǎn)載的所有的文章,、圖片,、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認版權(quán)者,。如涉及作品內(nèi)容,、版權(quán)和其它問題,請及時通過電子郵件或電話通知我們,,以便迅速采取適當措施,,避免給雙方造成不必要的經(jīng)濟損失。聯(lián)系電話:010-82306118,;郵箱:[email protected],。