Meta的第二代自研芯片正式投產(chǎn)!小扎計(jì)劃今年部署Artemis AI芯片為AI提供算力,,以減少對(duì)英偉達(dá)GPU的依賴,。
Meta第二代自研AI芯片Artemis,今年正式投產(chǎn),!
據(jù)悉,,新的芯片將被用于數(shù)據(jù)中心的推理(Inference)任務(wù),并與英偉達(dá)等供應(yīng)商的GPU一起協(xié)同工作,。
對(duì)此,,Meta的發(fā)言人表示:「我們認(rèn)為,我們自主開發(fā)的加速器將與市面上的GPU相得益彰,,為Meta的任務(wù)提供最佳的性能與效率平衡,。」
除了更高效地運(yùn)行的推薦模型外,,Meta還需要為自家的生成式AI應(yīng)用,,以及正在訓(xùn)練的GPT-4開源競(jìng)品Llama 3提供算力。
Meta的AI貼紙功能,,此前在Messenger,、Instagram和WhatsApp上都處于測(cè)試階段
OpenAI工程師Jason Wei在Meta的一次AI活動(dòng)中聽到,Meta現(xiàn)在有足夠的算力來訓(xùn)練Llama 3和4,。Llama 3計(jì)劃達(dá)到GPT-4的性能水平,,但仍將免費(fèi)提供
不難看出,Meta的目標(biāo)非常明確——在減少對(duì)英偉達(dá)芯片依賴的同時(shí),,盡可能控制AI任務(wù)的成本,。
Meta成英偉達(dá)大客戶
Meta CEO小扎最近宣布,他計(jì)劃到今年年底部署35萬(wàn)顆英偉達(dá)H100 GPU,,總共將有約60萬(wàn)顆GPU運(yùn)行和訓(xùn)練AI系統(tǒng),。
這也讓Meta成為了繼微軟之后,英偉達(dá)最大的已知客戶,。
小扎表示,目前Meta內(nèi)部正在訓(xùn)練下一代模型Llama 3,。
在35萬(wàn)塊H100上訓(xùn)練的Llama 3,,無法想象會(huì)有多大!
Omdia的研究數(shù)據(jù)顯示,,Meta在2023年H100的出貨量為15萬(wàn)塊,,與微軟持平,且是其他公司出貨量的3倍,。
小扎稱,,「如果算上英偉達(dá)A100和其他AI芯片,到2024年底,,Meta將擁有近60萬(wàn)個(gè)GPU等效算力」,。
性能更強(qiáng),、尺寸更大的模型,導(dǎo)致更高的AI工作負(fù)載,,讓成本直接螺旋式上升,。
據(jù)《華爾街日?qǐng)?bào)》的一位匿名人士稱,今年頭幾個(gè)月,,每有一個(gè)客戶,,微軟每月在Github Copilot上的損失就超過20美元,甚至某些用戶每月的損失高達(dá)80美元,,盡管微軟已經(jīng)向用戶收取每月10美元的費(fèi)用,。
之所以賠錢,是因?yàn)樯纱a的AI模型運(yùn)行成本高昂,。 如此高的成本,,讓大科技公司們不得不尋求別的出路。
除了Meta之外,,OpenAI和微軟也在試圖打造自己專有的AI芯片以及更高效的模型,,來打破螺旋式上升的成本。