根據(jù)思科(Cisco)日前進(jìn)行的一項調(diào)查,,盡管很多員工了解生成式AI在數(shù)據(jù)隱私方面的缺陷,,但許多人仍在向ChatGPT等類似的AI應(yīng)用程序輸入敏感的公司數(shù)據(jù)。
思科針對全球12個國家的2600名隱私和安全專業(yè)人士進(jìn)行的年度數(shù)據(jù)隱私基準(zhǔn)調(diào)查表明,,超過四分之一的公司在內(nèi)部實施了生成式AI禁令,,三分之二的公司對哪些信息可以輸入基于大型語言模型(LLM)的系統(tǒng)設(shè)置了護(hù)欄,或者禁止使用特定的應(yīng)用程序,。
思科卓越隱私中心主任Robert Waitman在博客文章中寫道:“超過三分之二的受訪者表示,,他們擔(dān)心數(shù)據(jù)有被競爭對手或公眾共享的風(fēng)險。盡管如此,,他們中的許多人輸入了可能有問題的信息,,包括有關(guān)所在公司的非公開信息(48%)?!?/p>
多數(shù)受訪者已經(jīng)意識到生成式AI的數(shù)據(jù)隱私問題
不出所料,,調(diào)查表明,受訪者對生成式AI的了解程度越來越高,,55%的人表示他們“非常熟悉”這項技術(shù),。而在2023年的調(diào)查中,52%的人表示不熟悉,。與此同時,79%的受訪者在今年的調(diào)查表示,,他們正在從生成式AI應(yīng)用中提取“顯著或非常顯著的價值”,。
即便如此,在部署此類工具時,,受訪者對公司保護(hù)數(shù)據(jù)安全的能力一直持保留態(tài)度,。其中包括擔(dān)心AI可能危及其公司的法律和知識產(chǎn)權(quán)(69%),將專有數(shù)據(jù)泄露給競爭對手或公眾(68%),,以及應(yīng)用程序輸出內(nèi)容可能不準(zhǔn)確(68%),。與此同時,92%的受訪者認(rèn)為,,部署生成式AI需要“管理數(shù)據(jù)和風(fēng)險的新技術(shù)”,。
盡管存在這些擔(dān)憂,但許多受訪者坦率地承認(rèn),他們曾將敏感的公司數(shù)據(jù)輸入到生成AI應(yīng)用程序中,。例如,,62%的人輸入了有關(guān)內(nèi)部流程的信息,而48%的人在生成式AI應(yīng)用程序中使用敏感的公司數(shù)據(jù)以尋求新的見解,。
企業(yè)發(fā)布內(nèi)部使用生成式AI禁令變得越來越普遍
很多公司似乎也開始通過對生成式AI的使用設(shè)置護(hù)欄來應(yīng)對帶來的這些誘惑,。27%的受訪者表示,他們的公司已經(jīng)完全禁止使用這項技術(shù),。其他公司則設(shè)置了一定的限制,,這些限制措施通常是數(shù)據(jù)限制(63%)、工具限制(61%)或數(shù)據(jù)驗證要求(36%),。
這些調(diào)查發(fā)現(xiàn)與零售,、制造業(yè)和金融服務(wù)行業(yè)組織在2023年發(fā)布的類似公告相呼應(yīng),他們將對生成式AI的內(nèi)部使用設(shè)置護(hù)欄,。今年5月,,三星禁止其員工使用生成式AI,亞馬遜,、蘋果和Verizon也實施了類似的限制,。
生成式AI專家Henry Ajder表示,這些決定可能是出于監(jiān)管的不確定性,,以及對數(shù)據(jù)隱私的擔(dān)憂,。
“人們意識到,如果他們以目前的方式使用生成式AI,,在當(dāng)前的監(jiān)管環(huán)境下,,他們的一些行為將會違反法規(guī),或者公司在安全維護(hù)方面的成本將非常高,?!盇jder說。