據(jù)Tom’s Hardware報(bào)道,,AI新創(chuàng)公司Anthropic CEO Dario Amodei近日在Podcast節(jié)目《In Good Company》中表示,雖然AI大模型的參數(shù)持續(xù)增長(zhǎng),,三年后的AI模型的訓(xùn)練成本可能將高達(dá)1000億美元,。
Amodei表示,OpenAI的ChatGPT-4等AI模型,,大約只需要花費(fèi)1億美元即可訓(xùn)練完成。而當(dāng)前正在開(kāi)發(fā)中的更大參數(shù)的大模型,,可能最多需要花費(fèi)10億美元來(lái)進(jìn)行訓(xùn)練,,預(yù)計(jì)未來(lái)三年,更大的模型的訓(xùn)練成本會(huì)快速膨脹至100億美元,,甚至是1,000億美元,。
對(duì)于AI大模型的訓(xùn)練來(lái)說(shuō),AI芯片是最大的成本,。早在2023年,,市場(chǎng)就傳聞ChatGPT需要超過(guò)30,000顆英偉達(dá)的AI GPU來(lái)支撐,而OpenAI CEO阿爾特曼(Sam Altman)也確認(rèn),,ChatGPT-4的訓(xùn)練成本為1億美元,。
除了OpenAI之外,谷歌,、Meta,、IBM、特斯拉,、阿里巴巴,、百度、騰訊,、字節(jié)跳動(dòng)等眾多的科技大廠都有在開(kāi)發(fā)自己的AI大模型,。由此也帶來(lái)了對(duì)于高性能AI芯片的龐大需求。根據(jù)TechInsights的數(shù)據(jù),2023年全球數(shù)據(jù)中心GPU總出貨量達(dá)到了385萬(wàn)顆,,其中英偉達(dá)一家就出貨了376萬(wàn)顆,。而英偉達(dá)出貨的H100加速卡的售價(jià)超過(guò)2.5萬(wàn)美元。而英偉達(dá)的新一代AI GPU B200每顆售價(jià)至少30,000~40,000美元左右,。
如果按照每年新的大模型的能力都能夠提升10倍,,那么所需的硬件基礎(chǔ)設(shè)施的性能可能也需要增強(qiáng)10倍,雖然所需的AI芯片數(shù)量可能不會(huì)增加10倍(每年新一代的AI芯片的性能都會(huì)提升),,但是考慮到尖端制程芯片的成本越來(lái)越高,,所需要花費(fèi)的硬件基礎(chǔ)設(shè)施的成本可能會(huì)增加10倍。如此看來(lái),,三年后,,更強(qiáng)大的AI大模型的訓(xùn)練成本確實(shí)有可能會(huì)達(dá)到1000億美元。
Amodei相信,,隨著算法,、芯片的持續(xù)進(jìn)步,2027年之時(shí),,AI模型執(zhí)行任務(wù)的表現(xiàn),,有相當(dāng)高的機(jī)率會(huì)比多數(shù)人類(lèi)還要好,即實(shí)現(xiàn)通用人工智能(AGI),。
當(dāng)然,,這可能需要1000億美元的訓(xùn)練成本,而這么大規(guī)模的資金投入只有極少數(shù)的廠商能夠負(fù)擔(dān)的起,。但即便是投入如此大規(guī)模的資金,,短期所能夠帶來(lái)的營(yíng)收可能也非常有限。
Sequoia Capital分析師David Cahn表示,,目前AI大模型的龍頭廠商O(píng)penAI的營(yíng)收正在快速增長(zhǎng),,其2024年的營(yíng)收有望從2023年底的16億美元上升至34億美元,遠(yuǎn)遠(yuǎn)超越其他營(yíng)收還無(wú)法達(dá)到1億美元的廠商,。這與未來(lái)需要100億美元甚至1000億美元的硬件基礎(chǔ)設(shè)施的AI大模型訓(xùn)練成本相比,,這點(diǎn)來(lái)自AI的收入可謂是杯水車(chē)薪。
David Cahn相信,,業(yè)界不能期待AI投資能快速帶來(lái)回報(bào),,同時(shí)還需意識(shí)到當(dāng)前投資計(jì)劃的投機(jī)本質(zhì),并持續(xù)創(chuàng)新,、創(chuàng)造價(jià)值,。若不這么做,則這個(gè)價(jià)值數(shù)千億美元的泡沫勢(shì)將破裂,,甚至可能引發(fā)全球經(jīng)濟(jì)危機(jī),。