蘋果在WWDC 2017大會上發(fā)布了用于在移動設備上處理AI任務的API框架Core ML,。將AI從云端移動到設備上對設備提出了更高的要求,,比如CPU和功耗,。為了讓設備上的AI更強大,,蘋果開始發(fā)力專門為AI設計的芯片,。
據(jù)匿名者透露,,該芯片在蘋果內(nèi)部被稱為Apple Neural Engine,,旨在提升蘋果設備處理AI任務的能力,,比如面部識別和語音識別等,。不過蘋果官方并沒有對此事做出回應,。
蘋果在AI領域一直想趕超Amazon和Alphabet。雖然Siri讓蘋果在語音識別方面走在了前面,,不過其他公司也在積極地部署他們的AI產(chǎn)品線,,包括Amazon的Echo和Google的家庭助手。AI芯片可以助力蘋果集成更多的設備,,包括自動駕駛汽車和增強現(xiàn)實設備,。
“蘋果未來的兩個主攻領域——自動駕駛機車和增強現(xiàn)實——它們都需要以AI為核心”。
蘋果設備目前同時使用了主處理器和圖形處理器來處理AI任務,。新的芯片讓設備將AI相關的任務交給專門的模塊去處理,,從而降低功耗。
高通最新的驍龍芯片提供了專門處理AI任務的模塊,。Google在2016年也發(fā)布了它的第一款芯片,,叫作Tensor Processing Unit,在Google的數(shù)據(jù)中心里,,它被用于增強搜索結果和圖像識別,。在今年的IO開發(fā)大會上,Google宣布了芯片的新版本,,可用于為他們的云客戶提供服務,。Nvidia也向他們的云客戶銷售類似的芯片。
據(jù)匿名者透露,,蘋果最終會將這款芯片集成到他們的大部分產(chǎn)品上,,包括iPhone和iPad。蘋果已經(jīng)在未來的iPhone原型機上測試過該芯片,,不過尚不清楚能否在今年面市,。
蘋果移動操作系統(tǒng)和官方軟件將深度集成該芯片,,比如可能將拍照的面部識別功能、一部分語音識別功能和鍵盤輸入預測功能移交給芯片去完成,。蘋果還打算向第三方開發(fā)者開放對芯片的訪問,,這樣第三方應用的AI任務也可以交由專有芯片去完成。