《電子技術應用》
您所在的位置:首頁 > 模擬設計 > 業(yè)界動態(tài) > 大數據“殺熟”,算法“歧視”,,網絡互聯(lián)時代如何實現(xiàn)算法正義?

大數據“殺熟”,,算法“歧視”,網絡互聯(lián)時代如何實現(xiàn)算法正義,?

2021-12-22
來源:紫金財經

大數據“殺熟”,,算法“歧視”,,平臺“畫像”……網絡互聯(lián)時代,算法,,這個曾經藏匿深處、遠離大眾的互聯(lián)網專業(yè)詞匯,,如今越來越多地被提及,,越來越多地被關注。

算法以全新的挑戰(zhàn)形態(tài)對法律實踐產生沖擊,,如何回應這些挑戰(zhàn),,如何用法律保護算法的計算正義,使其促進共同善的同時,,不對正義和公平造成沖擊,,本文作者認為,傳統(tǒng)的回應型規(guī)制視角并不可取,,而是應該從計算正義角度重構算法與法律的關系模式,。

人工智能帶來社會生活的智能化,隨著算法研發(fā)的發(fā)展和成熟,,生產,、社會生活、商業(yè)經營和公共決策等領域越來越多地利用算法來實現(xiàn)特定目標,。算法從幕后走到臺前,,成為法學研究的熱點。

01算法的廣泛應用帶來諸多法律困境

算法技術的獨特性不僅體現(xiàn)在算法如何進行計算和應用,,而是對法律的價值世界造成沖擊,。算法所引發(fā)的不僅是技術不受約束或者行業(yè)難以監(jiān)管,而是在一個非?;A的層面上沖擊了法律這種制度形式:算法系統(tǒng)的黑箱問題,、算法運行過程中的歧視、算法對偏見的數字化固化等等,。這些現(xiàn)象導致社會產生強烈擔憂,,更讓法律規(guī)制面臨棘手困境。

社會生活的計算化和算法與法律的融合產生了三方面的難題,,帶來了一定程度的社會危機和治理困境,。

第一類是監(jiān)管難題。社會生活的計算化改變了傳統(tǒng)概念的內涵和社會理解,,算法對社會生活的“入侵”使得隱私,、自主、平等等概念變得模糊不清,。借助算法,,運營商對個人數據的收集變得易如反掌,,通過算法監(jiān)測用戶的舉動也成為技術常態(tài);社交平臺收集用戶信息并進行畫像,,定向推送廣告,;網絡服務提供者運用數據進行特定的數據分析或者實驗。

第二類是價值難題,。從效用上看,,算法具有巨大的社會利益:在商業(yè)領域,算法可以快速精準地判斷市場商業(yè)需求,;在公共領域,,算法也潛力無限。然而,,從價值角度來看,,算法引發(fā)一定程度的價值危機:一方面改變人的主體性理解,賦予人的自由,、自主選擇和決策以新的內涵,;另一方面在實踐中引發(fā)固化歧視、侵犯隱私的問題,,構成對人之尊嚴的威脅,。

以算法黑箱問題為例,在商業(yè)領域,,消費平臺會基于人們的購買記錄和消費習慣而差別定價,,這種操作的依據并不透明,消費者也難以察覺,。算法黑箱的規(guī)制難點在于算法決策過程完全由機器根據特定函數進行運轉,,人力無法干預,更無法解釋算法運轉的內在原理,。

然而,,人們需要對算法的價值難題保持清醒的認識,算法本身是技術應用程式,,其價值問題本質上是算法設計者和使用者利用算法損害某些價值,。

第三類是歸責難題。算法應用必然伴隨著法律責任配置,,以防范風險和實施救濟,。隨著人工智能的廣泛應用,其侵權問題也成為理論難點,。人工智能的風險之一是算法侵權的救濟途徑難以確定,。

一個典型的例子是自動駕駛汽車致?lián)p的責任認定問題,汽車生產廠家,、算法設計者和車主應如何劃分責任,,是自動駕駛汽車進入市場前須解決的問題,。此外,算法歧視的救濟也是一個復雜問題,,特別是在公共決策中,,如果一個人因為性別或學歷而受到自動化行政決策的不同待遇,他能否向政府主張救濟,?

算法以全新的挑戰(zhàn)形態(tài)對法律實踐產生沖擊,。我們果真束手無策嗎?當前有大量的研究針對算法規(guī)制提出各種形式的建議,。但需要迫切回應的基礎性問題是,算法和法律之間有什么關系,?算法所造成的法律挑戰(zhàn),,法律能夠有力地應對嗎?從計算正義的角度切入這個問題,,可以挖掘出回應這些難題的有效思路,。

02 算法的價值:共同善與計算正義

理解法律與算法之關系的關鍵在于從價值上厘清二者之間的關聯(lián)。

算法的內涵有技術和社會兩重意義,。算法的技術意義并無太大爭議,,算法是一種計算方法,通過計算公式得出確定的結果,。算法的社會意義受制于科技發(fā)展水平和社會語境,,計算機的發(fā)明和網絡傳輸技術的提升使得大數據收集成為可能,在此基礎上,,算法通過對海量數據的深度學習可以實現(xiàn)自我更新和升級,,最后形成更為成熟的算法。

網絡服務主體開發(fā)利用特定算法(決策樹,、貝葉斯算法等)并服務于社會公眾,,比如信貸機構、網約車,、社交和外賣平臺等,。除了商業(yè)外,政府也可以發(fā)揮自動決策的優(yōu)勢,,運用算法決定行政審批,,包括公共資源審核、假釋評估等,。

可以看出,,算法改變了社會,也創(chuàng)造了更多新的可能,。但從價值角度來說,,算法的社會意義主要體現(xiàn)在算法能夠促進共同善,,即對于社會共同體的每個個體都至關重要的那些善好,比如知識,、社會交往和實踐理性等等,。

社交媒體可以促進社會交往和信息交流,大大便利人們對知識的追求,。算法的引入,,使得人們不僅能夠更好地實現(xiàn)這些善,也改變了實現(xiàn)善的方式,。比如傳統(tǒng)知識獲取方式是閱讀和教育,,現(xiàn)代的知識獲取方式十分多元,網絡閱讀,、視聽平臺,、社交媒體傳播等都是知識獲取的重要方式。

但算法并不能自動實現(xiàn)這些基本善,,人們帶著改善社會,、實現(xiàn)善的意圖將算法嵌入到各種應用場景之中,算法不僅參與到善的實現(xiàn)過程中——人們借助算法技術能夠更便捷地檢索知識,,也能重塑知識這種價值,,知識不再是關于世界的判斷和信念,也成為以計算化的方式而存在的代碼和數據,。

這個過程產生了正義問題,。

為什么要提出計算正義?

算法是技術,,通常來說被用于實現(xiàn)某種目標,,比如設計一種視覺識別算法,用于人臉識別或者動畫設計,。算法技術與正義無關,,但算法運行在某一場景之中,并且對人的決策和行動產生實際影響的時候,,算法技術就產生了正義問題,。

由于算法種類千差萬別,應用場景層出不窮,,算法涉及到的具體善也非常多,。但整體上來說,算法實踐最終都指向社會實踐的基本善,,也引發(fā)實現(xiàn)這些善的正義問題,。

例如,招聘算法能夠幫助雇主更為精確和高效地挑選合適雇員,,促進就業(yè),,但計算過程可能會包含潛在的歧視,。如果一個雇主對女性應聘者說:“你是女性,我不能招聘你”,,顯然構成歧視,,法律可以對這種性別歧視做出回應。但如果招聘算法在數據處理過程中包含著偏見,,法律對這種計算化的偏見應該如何回應,,卻是一個全新的問題。

法律有各種應對歧視(比如種族歧視,、性別歧視等)的規(guī)范形式和責任原理,,但在算法歧視問題上卻左右為難。由于算法所需要的數據本身并無完美,,所以算法歧視無法避免,。但傳統(tǒng)意義上的反歧視法在應對這種技術化和計算化的顯性或隱性歧視上卻束手無策。

03 算法與法律的重構模式

社會實踐是復雜的,,充滿了價值沖突和利益分歧,算法應用在諸多方面加劇了這種復雜性,。算法實踐所引發(fā)的法律挑戰(zhàn)和價值擔憂,,使得對算法進行規(guī)制成為必需。

在算法應用出現(xiàn)問題和引發(fā)擔憂時,,很多建議往往采取傳統(tǒng)的回應型規(guī)制視角,,主張將算法納入法律監(jiān)管,通過法律對算法進行規(guī)范,。然而,,規(guī)制所承載的回應型法律姿態(tài)不足以應對新興科技的發(fā)展步伐,因為從實踐來看,,科技對法律的影響意義反而比法律對科技的回應和規(guī)制更為突出,。  

理解算法與法律之關系的一種理想模式是重構模式,該模式強調的是法律在應對技術挑戰(zhàn)時,,應當對自身追求共同善的方式進行重新梳理,。這種模式并不是要改變法律的屬性,而是分析算法和法律的價值分別如何實現(xiàn),,二者之間如何契合,,以及出現(xiàn)沖突時應該如何解決。

例如,,面對算法歧視時,,正確的思路不是通過法律消除算法的歧視,而是分析算法歧視與傳統(tǒng)歧視有何不同,,根源上是否存在差異,,以及法律是否能夠展現(xiàn)出不同于傳統(tǒng)歧視防范方式的新方案,。在算法的法律應對上,重構模式可以發(fā)揮更為實質的作用和理論指導意義,。

在價值上,,算法既沖擊了傳統(tǒng)價值實踐方式,也重塑了價值的呈現(xiàn)形態(tài),。算法的社會意義主要體現(xiàn)在決策上,,包括公共決策和私人決策。決策的主要意義在于為利益分配和社會合作提供方案,,引導人們追求共同善,。

算法追求的具體價值類型有很多,有一些價值是法律與算法共同追求的,,比如效率,,但兩者也存在著很多價值差異,比如算法追求決策的客觀性,,法律則追求決策的公開透明,。這些差異會帶來實踐張力。例如,,人的決策會受到認知局限,、價值偏好等方面的影響;算法決策則以客觀數據為素材,、借助海量數據分析引導決策,。

算法運行是客觀的,但也會因為數據的選擇,、算法的設計而注入偏見和引發(fā)歧視,。這種歧視不同于人為歧視,而是一種被計算化的技術偏差,。因此,,算法歧視的源頭不在于算法本身,而在于機器學習所使用的那些數據,。機器學習必須使用人類的生活和實踐經驗中所積累的數據,,而計算結果反過來又影響人們的實踐。

如果沒有算法的參與,,人類決策和預測也會產生大量偏見,。算法影響了偏見產生的方式,主要體現(xiàn)在決策過程的計算化和數據化改變了人們的價值推理方式和道德判斷形態(tài),,也帶來正義評價機制的改變,。計算正義旨在揭示這種改變的社會和法律意義。算法應用范圍的擴展和具體應用場景的實踐積累不斷重塑計算正義空間的結構和道德內涵。

機器學習的決策結果與傳統(tǒng)的道德判斷產生的社會意義不同,。人的道德判斷具有一個面向實踐的開放性論辯結構,,比如,要判斷男性是否比女性更具有能力優(yōu)勢,,可以通過道德論辯,、價值衡量和實踐檢驗加以辨析。但機器學習的技術性知識轉化(社會理解轉變?yōu)閿祿斎耄?、復雜化運作(數以億萬級的數據處理),,為算法決策所承載的道德判斷賦予了全新的技術內涵。

通過社會規(guī)范或者制度安排而表明的歧視性判斷與通過計算過程而得出的智能化偏見在本質上是不同的,。我們不能確定地說算法偏見必須通過算法自身的技術改善而得以消除,,但至少可以確定的是,如果只認為通過法律規(guī)制能夠消除這種偏見,,是錯失重點的方向,。

所以,實現(xiàn)計算正義,,首先不在于解決算法運行中的問題,,而是展示如何從法律角度理解算法所引發(fā)的價值問題,以及構建出這兩種“規(guī)范”之間的互動空間,。

算法與法律的重構不是簡單的功能融合,,因為算法發(fā)揮技術功能,而法律發(fā)揮規(guī)范功能,。兩者的重構體現(xiàn)在算法對人的行為指引可視為法律指引功能的延伸,但算法的技術價值需要由法律價值加以約束并進行價值整合,。這是一項復雜的技術和社會工程,,同時展現(xiàn)了算法融入法律并拓展計算正義之內涵的開放空間。




最后文章空三行圖片.jpg


本站內容除特別聲明的原創(chuàng)文章之外,,轉載內容只為傳遞更多信息,,并不代表本網站贊同其觀點。轉載的所有的文章,、圖片,、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創(chuàng)文章及圖片等內容無法一一聯(lián)系確認版權者,。如涉及作品內容,、版權和其它問題,請及時通過電子郵件或電話通知我們,,以便迅速采取適當措施,,避免給雙方造成不必要的經濟損失。聯(lián)系電話:010-82306118,;郵箱:[email protected],。