人工智能正以出乎想象的速度走進(jìn)我們的生活,,滲透到了制造,、家居、金融、交通、安防、醫(yī)療,、物流等各行各業(yè)。據(jù)預(yù)測,,2018年全球AI產(chǎn)業(yè)市場規(guī)模將逼近2700億元,;2020年全球市場規(guī)模將達(dá)4000億元;至2025年,,全球范圍內(nèi)人工智能產(chǎn)業(yè)收入的年均復(fù)合增長率將大幅提升,,達(dá)到57%以上。
誠然,,人工智能的飛速發(fā)展一定程度上改變了人們的生活,,但與此同時(shí),,由于人工智能尚處于初期發(fā)展階段,該領(lǐng)域的安全,、倫理,、隱私的政策、法律和標(biāo)準(zhǔn)問題引起人們的日益關(guān)注,。具備超快學(xué)習(xí)能力的人工智能是否將進(jìn)化的比人類還要先進(jìn),?是否有一天將擺脫人類的控制?一旦出現(xiàn)人機(jī)情感危機(jī)問題應(yīng)如何解決,?人工智能是否應(yīng)該作為法律意義上的人承擔(dān)事故責(zé)任,?……諸如此類的問題層出不窮,,使得人們在享受人工智能帶來的便利的同時(shí),,也難掩內(nèi)心的恐慌。
就人工智能技術(shù)而言,,安全,、倫理和隱私問題直接影響人們與人工智能工具交互經(jīng)驗(yàn)中對人工智能技術(shù)的信任。如果不能消除人們內(nèi)心的懷疑和忌憚,,必將影響人工智能技術(shù)的發(fā)展,。
人工智能的安全問題不容忽視
人工智能最大的特征是能夠?qū)崿F(xiàn)無人類干預(yù)的,基于知識并能夠自我修正地自動(dòng)化運(yùn)行,。在開啟人工智能系統(tǒng)后,,人工智能系統(tǒng)的決策不再需要操控者進(jìn)一步的指令,這種決策可能會(huì)產(chǎn)生人類預(yù)料不到的結(jié)果,。設(shè)計(jì)者和生產(chǎn)者在開發(fā)人工智能產(chǎn)品的過程中可能并不能準(zhǔn)確預(yù)知某一產(chǎn)品會(huì)存在的可能風(fēng)險(xiǎn),。因此,對于人工智能的安全問題不容忽視,。
由于人工智能的程序運(yùn)行并非公開可追蹤,,其擴(kuò)散途徑和速度也難以精確控制。在無法利用已有傳統(tǒng)管制技術(shù)的條件下,,想要保障人工智能的安全,,必須另辟蹊徑,保證人工智能技術(shù)本身及在各個(gè)領(lǐng)域的應(yīng)用都遵循人類社會(huì)所認(rèn)同的倫理原則,。
其中應(yīng)特別關(guān)注的是隱私問題,,因?yàn)槿斯ぶ悄艿陌l(fā)展伴隨著越來越多的個(gè)人數(shù)據(jù)被記錄和分析,而在這個(gè)過程中保障個(gè)人隱私則是社會(huì)信任能夠增加的重要條件,??傊⒁粋€(gè)令人工智能技術(shù)造福于社會(huì),、保護(hù)公眾利益的政策,、法律和標(biāo)準(zhǔn)化環(huán)境,,是人工智能技術(shù)持續(xù)、健康發(fā)展的重要前提,。
必須設(shè)定人工智能技術(shù)的倫理要求
人工智能是人類智能的延伸,,也是人類價(jià)值系統(tǒng)的延伸。在其發(fā)展的過程中,,應(yīng)當(dāng)包含對人類倫理價(jià)值的正確考量,。設(shè)定人工智能技術(shù)的倫理要求,要依托于社會(huì)和公眾對人工智能倫理的深入思考和廣泛共識,,并遵循一些共識原則:
一是人類利益原則,,即人工智能應(yīng)以實(shí)現(xiàn)人類利益為終極目標(biāo)。這一原則體現(xiàn)對人權(quán)的尊重,、對人類和自然環(huán)境利益最大化以及降低技術(shù)風(fēng)險(xiǎn)和對社會(huì)的負(fù)面影響,。在此原則下,政策和法律應(yīng)致力于人工智能發(fā)展的外部社會(huì)環(huán)境的構(gòu)建,,推動(dòng)對社會(huì)個(gè)體的人工智能倫理和安全意識教育,,讓社會(huì)警惕人工智能技術(shù)被濫用的風(fēng)險(xiǎn)。此外,,還應(yīng)該警惕人工智能系統(tǒng)作出與倫理道德偏差的決策,。二是責(zé)任原則,即在技術(shù)開發(fā)和應(yīng)用兩方面都建立明確的責(zé)任體系,,以便在技術(shù)層面可以對人工智能技術(shù)開發(fā)人員或部門問責(zé),,在應(yīng)用層面可以建立合理的責(zé)任和賠償體系。在責(zé)任原則下,,在技術(shù)開發(fā)方面應(yīng)遵循透明度原則,;在技術(shù)應(yīng)用方面則應(yīng)當(dāng)遵循權(quán)責(zé)一致原則。
為個(gè)人隱私提供更強(qiáng)有力的保護(hù)
人工智能的近期發(fā)展是建立在大量數(shù)據(jù)的信息技術(shù)應(yīng)用之上,,不可避免地涉及到個(gè)人信息的合理使用問題,,因此對于隱私應(yīng)該有明確且可操作的定義。人工智能技術(shù)的發(fā)展也讓侵犯個(gè)人隱私的行為更為便利,,因此相關(guān)法律和標(biāo)準(zhǔn)應(yīng)該為個(gè)人隱私提供更強(qiáng)有力的保護(hù),。
此外,人工智能技術(shù)的發(fā)展使得政府對于公民個(gè)人數(shù)據(jù)信息的收集和使用更加便利,。大量個(gè)人數(shù)據(jù)信息能夠幫助政府各個(gè)部門更好地了解所服務(wù)的人群狀態(tài),,確保個(gè)性化服務(wù)的機(jī)會(huì)和質(zhì)量。但隨之而來的是,,政府部門和政府工作人員個(gè)人不恰當(dāng)使用個(gè)人數(shù)據(jù)信息的風(fēng)險(xiǎn)和潛在的危害應(yīng)當(dāng)?shù)玫阶銐虻闹匾暋?/p>
人工智能語境下的個(gè)人數(shù)據(jù)的獲取和知情同意應(yīng)該重新進(jìn)行定義,。首先,相關(guān)政策、法律和標(biāo)準(zhǔn)應(yīng)直接對數(shù)據(jù)的收集和使用進(jìn)行規(guī)制,,而不能僅僅征得數(shù)據(jù)所有者的同意,;其次,應(yīng)當(dāng)建立實(shí)用,、可執(zhí)行的,、適應(yīng)于不同使用場景的標(biāo)準(zhǔn)流程以供設(shè)計(jì)者和開發(fā)者保護(hù)數(shù)據(jù)來源的隱私;再次,,對于利用人工智能可能推導(dǎo)出超過公民最初同意披露的信息的行為應(yīng)該進(jìn)行規(guī)制,。最后,政策,、法律和標(biāo)準(zhǔn)對于個(gè)人數(shù)據(jù)管理應(yīng)該采取延伸式保護(hù),,鼓勵(lì)發(fā)展相關(guān)技術(shù),探索將算法工具作為個(gè)體在數(shù)字和現(xiàn)實(shí)世界中的代理人,。
上文所涉及的安全,、倫理和隱私問題是人工智能發(fā)展面臨的挑戰(zhàn)。安全問題是讓技術(shù)能夠持續(xù)發(fā)展的前提,。技術(shù)的發(fā)展給社會(huì)信任帶來了風(fēng)險(xiǎn),,如何增加社會(huì)信任,讓技術(shù)發(fā)展遵循倫理要求,,特別是保障隱私不會(huì)被侵犯是亟需解決的問題。為此,,需要制訂合理的政策,、法律、標(biāo)準(zhǔn)基礎(chǔ),,并與國際社會(huì)協(xié)作,。