《電子技術(shù)應(yīng)用》
您所在的位置:首頁 > 人工智能 > 業(yè)界動態(tài) > 剛剛曝光的 Claude3直擊 OpenAI 最大弱點(diǎn)

剛剛曝光的 Claude3直擊 OpenAI 最大弱點(diǎn)

2024-03-05
來源:極客公園
關(guān)鍵詞: Anthropic Claude3 大模型 GPT-4

作為 OpenAI GPT3 研發(fā)負(fù)責(zé)人的創(chuàng)業(yè)項目,,Anthropic 被視為最能與 OpenAI 抗衡的一家創(chuàng)業(yè)公司,。

當(dāng)?shù)貢r間周一,Anthropic 發(fā)布了一組 Claude 3 系列大模型,,稱其功能最強(qiáng)大的模型在各種基準(zhǔn)測試中均優(yōu)于 OpenAI 的 GPT-4 和 Google 的 Gemini 1.0 Ultra,。

但是,能處理更復(fù)雜的推理任務(wù),、更智能,、更快響應(yīng),這些躋身大模型 Top3 的綜合能力只是 Claude3 的基本功,。

Anthropic 致力于成為企業(yè)客戶的最佳拍檔,。

這是首先體現(xiàn)在 Claude3 是一組模型:Haiku、Sonnet 和 Opus,,讓企業(yè)客戶根據(jù)自身場景選擇不同性能,、不同成本的版本。

其次,Anthropic 強(qiáng)調(diào)自家模型是最安全的,。Anthropic 總裁 Daniela Amodei 介紹,,在 Claude3 的訓(xùn)練中引入了一種叫做「憲法人工智能」的技術(shù),增強(qiáng)其安全,、可信,、可靠。

在看完 Claude3 的技術(shù)報告后,,愛丁堡大學(xué)大模型和推理博士生符堯稱,,Claude3 在一些復(fù)雜推理的基準(zhǔn)測試上表現(xiàn)尤其顯著,尤其在金融和醫(yī)療領(lǐng)域,,作為一家 ToB 公司,,Anthropic 選擇優(yōu)化最掙錢的領(lǐng)域。

現(xiàn)在,,Anthropic 在 159 個國家開放使用 Claude3 系列的兩款模型(Opus 和 Sonnet),,最強(qiáng)版本 Haiku 也即將推出,。同時,,Anthropic 也通過亞馬遜和谷歌的云平臺提供服務(wù),后者曾分別向 Anthropic 注資 40 億美元和 20 億美元,。

更智能,、響應(yīng)更快的 Claude3 家族:Opus、Sonnet 和 Haiku

據(jù) Anthropic 官網(wǎng),,Claude3 是一系列模型,,包含三種最先進(jìn)的模型:Claude 3 Haiku、Claude 3 Sonnet 和 Claude 3 Opus,,允許用戶為其特定應(yīng)用選擇智能,、速度和成本的最佳平衡。

在模型的通用能力上,,Anthropic 稱 Claude 3 系列「為廣泛的認(rèn)知任務(wù)樹立了新的行業(yè)基準(zhǔn)」,,在分析和預(yù)測、細(xì)致內(nèi)容的生成,、代碼生成以及西班牙語,、日語和法語等非英語語言對話方面,現(xiàn)實(shí)出更強(qiáng)大的能力,,在任務(wù)響應(yīng)上也更及時,。

其中,Claude 3 Opus 是這組模型中最智能的模型,,尤其在高度復(fù)雜的任務(wù)處理上,。Opus 在大多數(shù)常見的評測基準(zhǔn)中都優(yōu)于同行,包括本科水平專家知識 ( MMLU ) 、研究生水平專家推理 ( GPQA ) ,、基礎(chǔ)數(shù)學(xué) ( GSM8K ) 等,。它在復(fù)雜任務(wù)上表現(xiàn)出接近人類水平的理解力和流暢性,是目前 Anthropic 對于通用智能最前沿的探索,,「展示了生成式人工智能的外部極限」,。

1.jpg

Claude3 模型家族|圖片來源:Anthropic

Claude 3 Sonnet 在智能水平和響應(yīng)速度之間實(shí)現(xiàn)了理想的平衡,尤其對于企業(yè)場景下的任務(wù),。與同類產(chǎn)品相比,,它以更低的成本提供了強(qiáng)大的性能,并且專為大規(guī)模人工智能部署中的高耐用性(high endurance)而設(shè)計,。對于絕大多數(shù)工作負(fù)載,,Sonnet 的速度比 Claude 2 和 Claude 2.1 快 2 倍,且智能水平更高,。它擅長執(zhí)行需要快速響應(yīng)的任務(wù),,例如知識檢索或銷售自動化。 

Claude 3 Haiku 是最緊湊的模型,,并且也最具成本效益,。并且,它的響應(yīng)速度也很快,,可以在不到三秒的時間內(nèi)閱讀 arXiv 上包含圖表,、圖形的信息以及數(shù)據(jù)密集的研究論文(約 10k token)。

瞄準(zhǔn)企業(yè)客戶的迭代

聯(lián)合創(chuàng)始人 Daniela Amodei 介紹,,除了通用智能的進(jìn)步,,Anthropic 特別關(guān)注企業(yè)客戶把生成式 AI 集成到他們的業(yè)務(wù)時,所面臨的許多挑戰(zhàn),。針對企業(yè)客戶,,Claude3 家族在視覺能力、準(zhǔn)確性,、長文本輸入和安全方面,,都有進(jìn)步。

很多企業(yè)客戶的知識庫擁有多種格式,,PDF,、流程圖或演示幻燈片。現(xiàn)在,,Claude 3 系列模型可以處理各種視覺格式的內(nèi)容,,包括照片、圖表,、圖形和技術(shù)圖表,。

Claude3 還優(yōu)化了準(zhǔn)確性和長文本窗口的能力,。

在準(zhǔn)確性上,Anthropic 使用了大量復(fù)雜的事實(shí)問題來針對當(dāng)前模型中已知的弱點(diǎn),,將答案分為正確答案,、錯誤答案(或幻覺)和承認(rèn)不確定性。相應(yīng)地,,Claude3 模型表示它不知道答案,,而不是提供不正確的信息。其中最強(qiáng)的版本 Claude 3 Opus 在具有挑戰(zhàn)性的開放式問題上的準(zhǔn)確性(或正確答案)上,,比 Claude 2.1 提高了一倍,,同時也減少了錯誤答案的水平。

2.jpg

相比 Claude2.1 版本,,Claude3 系列全面提升了響應(yīng)的準(zhǔn)確性,。|圖片來源:Anthropic

同時,由于語境理解能力的提升,,Claude3 家族相比之前的版本,,在響應(yīng)用戶任務(wù)上會作出更少的拒絕回答。

除了更準(zhǔn)確的回復(fù),,Anthropic 稱將在 Claude 3 帶來「引用」功能,,可以指向參考材料中的精確句子來驗證他們的答案。

當(dāng)前,,Claude 3 系列模型將提供 200K token 的上下文窗口,。后續(xù),,所有這三種模型都能夠接受超過 100 萬 token 的輸入,,這部分能力會提供給需要增強(qiáng)處理能力的精選客戶。Anthropic 在技術(shù)報告中簡單闡述了 Claude3 的上文本窗口能力,,包括有效處理更長的上下文提示詞,,以及回憶能力。

「憲法人工智能」,,應(yīng)對「不精確的科學(xué)」

值得注意的是,,Claude3 作為多模態(tài)模型,可以輸入圖像,,但無法輸出圖像內(nèi)容,。聯(lián)合創(chuàng)始人 Daniela Amodei 稱,這是因為「我們發(fā)現(xiàn)企業(yè)對圖像的需求要少得多」,。

Claude3 的發(fā)布是在谷歌 Gemini 生成圖片引發(fā)爭議后發(fā)布的,,面向企業(yè)客戶的 Claude 也免不了在 AI 所引發(fā)的價值觀偏見等問題上的控制與平衡。

對此,,Dario Amodei 強(qiáng)調(diào)了控制人工智能模型的難度,,稱其為「不精確的科學(xué)」。他表示,該公司有專門的團(tuán)隊致力于評估和減輕模型帶來的各種風(fēng)險,。

另一位聯(lián)合創(chuàng)始人 Daniela Amodei 也承認(rèn),,用目前的方法可能無法實(shí)現(xiàn)完全無偏見的人工智能?!竸?chuàng)建一個完全中立的生成式人工智能工具幾乎是不可能的,,不僅在技術(shù)上,而且還因為并不是每個人都同意什么是中立,?!顾f。

3.jpg

此前,,Anthropic 公布了用來對齊大模型的「憲法人工智能」|圖片來源:Anthropic

盡管如此,,Anthropic 用一種稱為「憲法人工智能」方法來盡可能使模型和人類廣泛的價值觀一致,模型遵循「憲法」中定義的原則來調(diào)整優(yōu)化,。

作為 OpenAI 曾經(jīng)的核心人發(fā)人員,,Amodei 兄妹的出走跟近日馬斯克對 OpenAI 的一紙訴狀有相同點(diǎn),認(rèn)為 OpenAI 不再是一個非贏利組織,,不再遵循最初使命造福人類,。有記者問 Amodei,Anthropic 符合你出走創(chuàng)業(yè)的愿景嗎,?

Amodei 說:「處于人工智能發(fā)展的前沿,,是引導(dǎo)人工智能發(fā)展軌跡為社會帶來積極成果的最有效方式?!?/p>


weidian.jpg

本站內(nèi)容除特別聲明的原創(chuàng)文章之外,,轉(zhuǎn)載內(nèi)容只為傳遞更多信息,并不代表本網(wǎng)站贊同其觀點(diǎn),。轉(zhuǎn)載的所有的文章,、圖片、音/視頻文件等資料的版權(quán)歸版權(quán)所有權(quán)人所有,。本站采用的非本站原創(chuàng)文章及圖片等內(nèi)容無法一一聯(lián)系確認(rèn)版權(quán)者,。如涉及作品內(nèi)容、版權(quán)和其它問題,,請及時通過電子郵件或電話通知我們,,以便迅速采取適當(dāng)措施,避免給雙方造成不必要的經(jīng)濟(jì)損失,。聯(lián)系電話:010-82306118,;郵箱:[email protected]