4 月 2 日消息,,雖然目前 Siri 可以嘗試描述信息中的圖像,,但效果并不穩(wěn)定。不過,,蘋果公司并沒有放棄人工智能領(lǐng)域的探索,。在最近的一篇研究論文中,,蘋果的人工智能團(tuán)隊(duì)描述了一種可以顯著提升 Siri 智能的模型,而且他們認(rèn)為這個(gè)名為 ReALM 的模型在測(cè)試中優(yōu)于 OpenAI 的知名語言模型 GPT-4.0,。
ReALM 的特別之處在于,,它可以同時(shí)理解用戶屏幕上的內(nèi)容和正在進(jìn)行的操作。論文將信息分為以下三種類型:
屏幕實(shí)體:指的是當(dāng)前顯示在用戶屏幕上的內(nèi)容,。
對(duì)話實(shí)體:指的是與對(duì)話相關(guān)的內(nèi)容,。例如,用戶說 " 打電話給媽媽 ",,那么媽媽的聯(lián)系人信息就是對(duì)話實(shí)體,。
背景實(shí)體:指的是與用戶當(dāng)下操作或屏幕顯示內(nèi)容可能并不直接相關(guān)的實(shí)體,比如正在播放的音樂或即將響起的鬧鈴,。
如果能夠完美運(yùn)行,,ReALM 將使 Siri 變得更加智能和實(shí)用。他們將 ReALM 與 OpenAI 的 GPT-3.5 和 GPT-4.0 進(jìn)行了性能對(duì)比:
" 我們同時(shí)測(cè)試了 OpenAI 提供的 GPT-3.5 和 GPT-4.0 模型,,并為它們提供了上下文信息,,讓它們預(yù)測(cè)一系列可能的實(shí)體。GPT-3.5 只接受文本輸入,,因此我們只提供了文字提示,。而 GPT-4 能夠理解圖像信息,因此我們?yōu)樗峁┝似聊唤貓D,,這顯著提升了它的屏幕實(shí)體識(shí)別性能,。"
那么蘋果的 ReALM 表現(xiàn)如何呢?
" 我們的模型在識(shí)別不同類型實(shí)體方面均取得了顯著進(jìn)步,,即使是最小的模型,,在屏幕實(shí)體識(shí)別上的準(zhǔn)確率也比原有系統(tǒng)提升了 5% 以上。與 GPT-3.5 和 GPT-4.0 的對(duì)比中,,我們最小的模型與 GPT-4.0 的性能相當(dāng),,而更大的模型則明顯優(yōu)于它。"
論文的結(jié)論之一是,,ReALM 即使擁有比 GPT-4 少得多的參數(shù),也能在性能上與之匹敵,,并且在處理特定領(lǐng)域的用戶指令時(shí)表現(xiàn)更加出色,,這使得 ReALM 成為一種可以在設(shè)備端運(yùn)行的、實(shí)用高效的實(shí)體識(shí)別系統(tǒng),。
對(duì)于蘋果而言,,如何在不影響性能的情況下將這項(xiàng)技術(shù)應(yīng)用于設(shè)備似乎是關(guān)鍵所在,隨著 WWDC 2024 開發(fā)者大會(huì)即將于 6 月 10 日召開,,外界普遍期待蘋果將在 iOS 18 等新系統(tǒng)中展示更多的人工智能技術(shù)成果,。