最近,,由美國人工智能研究室OpenAI開發(fā)的全新“聊天機器人”ChatGPT火了。作為一款人工智能語言模型,,它不僅能和人展開互動,,還可以寫文章、制定方案,、創(chuàng)作詩歌,,甚至編寫代碼、檢查漏洞樣樣精通,,上線僅兩個月全球活躍用戶破億,。
對此,有人直呼“太好用了,,你要什么它就給什么”,,也有人擔憂“一些工作將被它取代”。
ChatGPT的問世掀起了新一輪人工智能浪潮,,但其使用過程中可能涉及的法律問題不容忽視,,記者對此進行了調查采訪。
ChatGPT火了,,在國內連續(xù)多日沖上熱搜榜,,一時與ChatGPT相關的各種信息遍布網絡。
ChatGPT全稱“Chat Generative Pre-trained Transformer”,,按照其自我介紹,,它是一個由OpenAI訓練的大型語言模型,被設計用來回答各種問題并為人們提供幫助,。
人工智能,、人機交互、自動問答……與ChatGPT相關聯(lián)的各種“高大上”的形容詞讓不少人感到好奇:ChatGPT到底能干什么?是否真的像一些人擔憂的那樣,,可以取代文本創(chuàng)作等類型的工作?
《法治日報》記者近日采訪發(fā)現,,ChatGPT的火爆背后暗藏法律風險隱患,。人工智能在給人們的生活增添樂趣、提供便利的同時,,其信息真?zhèn)?、知識產權等法律風險也愈發(fā)受到關注。另一方面,,不少人盯上了其熱度想“搭便車”牟利,,出現了大批“山寨”產品和賬號轉賣行為。
存在信息泄露風險
可能侵犯知識產權
ChatGPT爆火后,,很多博主拍攝了測評視頻,。不少人給出評價稱,面對一些提問,,ChatGPT反應速度,、準確性較高,表現甚至優(yōu)于一些搜索引擎,。但ChatGPT的回答通常是籠統(tǒng)的,、整合性的回答,而不是具有個性色彩的,、創(chuàng)新性的回答,。
公開資料顯示,ChatGPT可以總結研究論文,、回答問題,、生成可用的計算機代碼,甚至快速通過美國醫(yī)學執(zhí)照考試,、沃頓商學院的MBA期末考試,、司法考試。一些醫(yī)學論文預印本和已發(fā)表的文章甚至正式賦予了ChatGPT作者身份,。
但在受訪的法律人士看來,,ChatGPT的強大功能也隱含著不少法律風險。
“ChatGPT對信息,、數據來源無法進行事實核查,,可能存在個人數據與商業(yè)秘密泄露和提供虛假信息兩大隱患?!北本┯疲ㄉ虾#┞蓭熓聞账ヂ?lián)網法律事務部主任謝連杰說,。
謝連杰分析說,ChatGPT依托海量數據庫信息存在,其中包括大量的互聯(lián)網用戶自行輸入的信息,,因此當用戶輸入個人數據或商業(yè)秘密等信息時,,ChatGPT可能將其納入自身的語料庫而產生泄露的風險。雖然ChatGPT承諾刪除所有個人身份信息,,但未說明刪除方式,,在其不能對信息與數據來源進行事實核查的情況下,這類信息仍然具有泄露風險,。
其次,,人工智能生成的信息并不總是準確的,ChatGPT常常出現“一本正經地胡說八道”的情況,,需要一定的專業(yè)知識才能辨別真?zhèn)?;也可能有不法分子惡意“訓練”人工智能,使其提供詐騙信息,、釣魚網站等內容,,損害公民人身財產安全。
“對于這類隱患,,平臺應充分提示用戶其生成的內容可能為虛假信息,,且在其生成疑似違法信息時進行攔截或提示用戶存在安全風險?!敝x連杰說,。
泰和泰(重慶)律師事務所高級合伙人朱杰說,ChatGPT在建立語料庫,、生成文本時,,如果使用并非公開的開源代碼、使用開源代碼商用未辦理許可證或者未按照許可證的要求實施的,,可能會導致侵權,。
他解釋說,這類人工智能主要是通過挖掘人類日常交流以及文本,,進而統(tǒng)計分析,,因此,對于一些受著作權保護的文本,、視頻,、代碼等,如果沒有經過權利主體的授權,,直接獲取復制到自己的數據庫中,,并在此基礎上修改、拼湊,,極可能侵害他人的著作權,。
2019年,,國際保護知識產權協(xié)會(AIPPI)發(fā)布《人工智能生成物的版權問題決議》,認為人工智能生成物在其生成過程中有人類干預,,且該生成物符合受保護作品應滿足的其他條件情況下,,能夠獲得保護,對于生成過程無人類干預的人工智能生成物無法獲得版權保護,。
近日,,多家國內學術刊物針對ChatGPT發(fā)聲?!遏吣蠈W報(哲學社會科學版)》發(fā)布關于使用人工智能寫作工具的說明提到,,暫不接受任何大型語言模型工具(例如:ChatGPT)單獨或聯(lián)合署名的文章,。在論文創(chuàng)作中使用過相關工具,,需單獨提出,并在文章中詳細解釋如何使用以及論證作者自身的創(chuàng)作性,。如有隱瞞使用情況,,將對文章直接退稿或撤稿處理?!短旖驇煼洞髮W學報(基礎教育版)》發(fā)布聲明,,建議作者在參考文獻、致謝等文字中對使用人工智能寫作工具(如:ChatGPT等)的情況予以說明,。
朱杰認為,,ChatGPT生成的文本等內容是基于大量數據的統(tǒng)計和應用生成的,不具有自己的思想和創(chuàng)新,,很難構成著作權法保護的作品,。
謝連杰提到,ChatGPT的文本數據挖掘技術可能導致其在他人享有著作權的作品中“借鑒”部分內容,。對于這部分內容,,若不能構成我國著作權法所規(guī)定的“合理使用”的情形,則可能引發(fā)侵權糾紛,。
借勢販賣租賃賬號
“搭便車”山寨頻出
ChatGPT走紅后,,由于服務端對中國大陸的IP有限制,無法注冊使用,,其賬號一時在國內多個網購平臺,、社交平臺上銷售火熱。在某電商平臺上售賣成品賬號的店鋪,,一天之內多達萬人付款,,價格最低1.68元。
記者在一家名為“ChatGPT賬號供應商”的店鋪購買了賬號,,商家隨后私聊發(fā)來賬號和密碼,,并特別標注輸入時需要復制粘貼,,還附有登錄教程。登錄后,,記者發(fā)現這是一個多人共享賬號,,左側聊天欄已經存在許多聊天窗口,系統(tǒng)運行十分緩慢,,不一會記者就被提醒不能多人同時提問,。
記者發(fā)現,某電商平臺上,,多數商家售賣的都是共享賬號,,而單人定制賬號或者代注冊賬號的價格往往更高。
近日,,多個電商平臺對ChatGPT賬號銷售行為進行了查禁,,相關關鍵詞被屏蔽。記者先前賬號訂單顯示商品不存在,,進入到商家界面發(fā)現,,所有的商品均已下架。
然而,,記者在社交平臺上搜索“ChatGPT賬號”等關鍵詞發(fā)現,,仍有不少網友在提供代注冊、有償賬號分享服務,,圍繞ChatGPT賬號展開的買賣行為仍在野蠻生長,。
朱杰認為,這種買賣行為可能構成非法經營等違法行為,。ChatGPT的正版服務由境外機構提供,,而未經我國相關部門批準利用VPN跨境提供經營活動是被明確禁止的,所以國內這些代問,、代注冊的商家以營利為目的,,搭建或使用VPN進行注冊賬號,未辦理國家相關行政許可,,擅自經營買賣國外賬號,,可能會受到行政處罰甚至刑事處罰。
ChatGPT賬號價值被炒作成商品以外,,借其名稱熱度“搭便車”的牟利行為也大量出現,。近日,記者查詢發(fā)現,,以“ChatGPT”“智能問答”等字眼作名稱的小程序,、公眾號數量激增,不少小程序都顯示有“1000+人最近使用”,。
記者使用其中一些小程序后發(fā)現,,這些產品不僅和ChatGPT毫無關系,,而且大多以免費試用為噱頭,吸引用戶注冊使用后,,再推出收費服務,,最終目的是誘人充值以牟利。例如,,一個名為“××超級AI”的公眾號中提到,,可以為用戶提供ChatGPT中文版的服務,小程序界面有不同的服務類型,,從“AI情感問題”到“AI程序助手”,,用戶可以選擇與不同的AI聊天。
可當記者點擊進入“AI情感問題”一欄,,還未進行任何操作,,對話框就顯示記者“已經用完今天的免費次數”,后續(xù)體驗需要購買VIP,,分別為19.9元的一天會員,、199元的月度會員與999元的年度會員,。
朱杰說,,“山寨”軟件打著正版軟件的旗號進行宣傳,欺騙消費者進行下載,,可能構成虛假廣告,;同時,“山寨”軟件使用的名稱及標志如與正版軟件相同或相似,,引導他人誤認為與正版存在特定聯(lián)系,,可能構成反不正當競爭法中規(guī)定的商業(yè)混淆行為,將受到行政處罰,。
法律規(guī)范必不可少
部門監(jiān)管精細治理
ChatGPT浪潮澎湃,,其背后暴露出的人工智能法律風險、圍繞ChatGPT展開的無序商業(yè)行為亦洶涌來襲,,如何應對成為關注焦點,。
上海政法學院人工智能法學院副教授郭金蘭告訴記者,我國算法行業(yè)在此前的標準制定時已經初步嘗試了以場景和架構為基準的思路,。
2018年7月,,中國科學院軟件研究所聯(lián)合15家產學研單位共同編制首個國內人工智能深度學習算法標準《人工智能深度學習算法評估規(guī)范》。這一規(guī)范基于深度學習算法可靠性的內部和外部影響,,結合實際應用場景,,確定了由7個一級指標和20個二級指標組成的算法可靠性評估指標體系,做了場景化和精細化算法治理實踐的有益嘗試,。
2022年出臺的《互聯(lián)網信息服務算法推薦管理規(guī)定》中明確要求,,人工智能的算法應當堅持社會主義主流價值觀,,不能利用算法危害國家安全和社會公共利益、擾亂經濟秩序和社會秩序,、侵犯他人合法權益,。今年1月10日起施行的《互聯(lián)網信息服務深度合成管理規(guī)定》中明確,任何組織和個人不得利用深度合成服務制作,、復制,、發(fā)布、傳播法律,、行政法規(guī)禁止的信息,,不得利用深度合成服務從事危害國家安全和利益、損害國家形象,、侵害社會公共利益,、擾亂經濟和社會秩序、侵犯他人合法權益等法律,、行政法規(guī)禁止的活動,。
隨著人工智能產品不斷迭代升級,未來對相關產品該如何進行監(jiān)管與應對,?
郭金蘭認為,,對人工智能監(jiān)管,需要深入人工智能系統(tǒng)的整個生命周期,,從模型的建立,、語料庫的標注、模型訓練,、投放市場后的迭代進化直到系統(tǒng)退出使用,。監(jiān)管需要關注到每個具體的環(huán)節(jié),包括語料庫的篩選標準制定,、參與人工標注的人員培訓,,開發(fā)者的價值觀考察等。
“對ChatGPT這類生成式人工智能的監(jiān)管必須將算法監(jiān)管和數據監(jiān)管結合起來,。在算法監(jiān)管機制的未來探索中,,應充分考慮算法決策的主體類型和作用類別,探索場景化和精細化的算法治理機制,?!惫鹛m建議說。
朱杰建議,,國家應當加強對人工智能的倫理規(guī)制,,將倫理道德納入人工智能研發(fā)和應用的全過程,增強全社會人工智能的倫理意識和行為自覺,,積極引導負責任的人工智能研發(fā)與應用活動,,促進人工智能健康發(fā)展,。
敬請關注電子技術應用2023年2月22日==>>商業(yè)航天研討會<<