“無論至于何處,,遇男或女,,貴人及奴婢,我之唯一目的,,為病家謀幸?!参宜娝?,無論有無業(yè)務(wù)關(guān)系,,我愿保守秘密?!毕2死资难允敲恳粋€醫(yī)學(xué)生入行時要立下的誓詞,。數(shù)千年以來,這個宣言以一種亙古不變的精神在醫(yī)學(xué)技術(shù)的發(fā)展中傳承,。它明確了醫(yī)學(xué)的基本倫理規(guī)范,,也賦予了醫(yī)生“健康所系,性命相托”的責任感,。
科學(xué)技術(shù)的飛速發(fā)展,,給人類社會帶來了巨大的便利,也帶來了新的倫理挑戰(zhàn),。在醫(yī)學(xué)領(lǐng)域,,尤其是人類基因組測序、轉(zhuǎn)基因技術(shù),、克隆技術(shù),、胚胎干細胞、合成生物學(xué)等前沿領(lǐng)域,,科技進步引發(fā)的倫理、法律,、社會問題已成為學(xué)術(shù)界和社會普遍關(guān)注的熱點問題,。
專家預(yù)測,到2024年,,AI醫(yī)療將是一個近200億美元的市場,。人工智能有望成為醫(yī)療實踐的福音,能夠改善診斷效果,、提供個性化治療,,并及時發(fā)現(xiàn)未來的公共醫(yī)療風險。即便如此,,該技術(shù)仍然引發(fā)了一系列棘手的道德難題,。當AI系統(tǒng)決策失誤時會出現(xiàn)哪些問題?如果有問題的話,,該誰負責,?臨床醫(yī)生如何驗證甚至了解AI“黑匣子”的內(nèi)容?他們又該如何避免AI系統(tǒng)的偏見并保護患者隱私,?
雖然AMA在指南中表示,,人工智能應(yīng)該設(shè)計用于識別和解決偏見、保障弱勢群體需求,、實現(xiàn)過程透明性并保護患者隱私,,但在具體實施中,,這些要求很難得到滿足。以下是醫(yī)學(xué)從業(yè)者,、研究人員和醫(yī)學(xué)倫理學(xué)家需要面對且最為緊迫的道德挑戰(zhàn),。
2017年,芝加哥大學(xué)醫(yī)學(xué)院(UCM)的數(shù)據(jù)分析團隊使用人工智能來預(yù)測患者可能的住院時長,。其目標是確定可以提前出院的患者,,從而釋放醫(yī)院資源并為新的患者提供救治。然后,,醫(yī)院還會指派一名案例管理人員來幫助患者處理保險事宜,,確保患者及時回家,,并為其早日出院鋪平道路,。
在測試系統(tǒng)時,研究小組發(fā)現(xiàn),,預(yù)測患者住院時間最準確的因素是他們的郵政編碼,,這立刻給研究團隊敲響了警鐘。他們知道,,郵編與患者的種族和社會經(jīng)濟地位密切相關(guān),。依靠郵政編碼做預(yù)測,會對芝加哥最貧困社區(qū)的非裔美國人造成不良影響,,這些人往往住院時間更長,。因此該團隊認為使用該算法分配案例管理員將是有偏見和不道德的。
這個案例指出了基于人工智能的醫(yī)療保健工具的弱點:算法通??梢苑从超F(xiàn)有的種族或性別健康差異,。這個問題如果沒有得到解決,就可能會導(dǎo)致長期性偏見并固化醫(yī)療保健領(lǐng)域現(xiàn)有的不平等現(xiàn)象,。偏見還會影響罕見病或新疾病的治療,,這些疾病的治療數(shù)據(jù)有限。人工智能系統(tǒng)可能會直接給出一般治療方案,,而不考慮患者的個人情況,。這時,人工智能擬議的治療方案是無效的,。
第二個道德挑戰(zhàn)是,,通常情況下,研究人員并不了解AI系統(tǒng)是如何計算出結(jié)果的,,即所謂的黑匣子問題,。先進的機器學(xué)習(xí)技術(shù)可以在沒有明確指示的情況下吸收大量數(shù)據(jù)并識別統(tǒng)計模式,整個過程人類尤其難以驗證。盲目遵循這種系統(tǒng)的醫(yī)生可能會在無意中傷害患者,。
其中一個模型是“基于規(guī)則”的系統(tǒng),,其決策過程對研究人員來說是透明的,卻預(yù)測出違反直覺的結(jié)果:患有肺炎和哮喘的患者比僅患有肺炎的患者存活機會更大,,因此患有兩種疾病的患者可以推遲治療,。顯而易見,醫(yī)護人員能夠清楚的判斷患有兩種疾病的患者具有更高的死亡風險,,但算法不能,。所以僅僅依靠這種算法,意味著最危急的病人將不能及時得到他們所需要的治療,。
另一種使用神經(jīng)網(wǎng)絡(luò)和機器學(xué)習(xí)算法的模型產(chǎn)生了更準確的結(jié)果,,但其推理過程是不透明的,因此研究人員無法及時發(fā)現(xiàn)其中的問題,。該研究的負責人,、微軟公司研究員理查德卡魯阿納得出結(jié)論:神經(jīng)網(wǎng)絡(luò)模型風險太大,無法進入臨床試驗,,因為沒有辦法判斷它是否犯了類似的錯誤,。根據(jù)AMA的醫(yī)學(xué)倫理基本原則,醫(yī)生必須完全對患者負責,。但是,,當人工智能進入等式時,責任又該如何劃分,?這個問題的答案仍在由倫理學(xué)家,、研究人員和監(jiān)管機構(gòu)制定。
人工智能打破了提供醫(yī)療服務(wù)的群體限制,,一些傳統(tǒng)上不受醫(yī)學(xué)倫理約束的人,比如數(shù)據(jù)科學(xué)家,,也可以為患者提供醫(yī)療服務(wù),。此外,正如黑匣子問題所示,,人們并不總是能夠確切地知道人工智能系統(tǒng)是如何做出診斷或開出治療處方的,。有缺陷的算法可能對患者造成重大傷害,從而導(dǎo)致醫(yī)療事故,。
但為了做出準確的預(yù)測,,機器學(xué)習(xí)系統(tǒng)必須要訪問大量的患者數(shù)據(jù)。如果沒有個人的醫(yī)療記錄,,人工智能將無法提供準確的診斷或有用的治療方法,,更無法實現(xiàn)更加個性化的治療。更重要的是,如果數(shù)以百萬計的病人隱瞞他們的醫(yī)療數(shù)據(jù),,關(guān)鍵的公共衛(wèi)生趨勢可能會被忽視,,這將是每個人的損失。
一個潛在的解決方案是從用醫(yī)療記錄中單獨刪除個人識別信息來保護患者隱私,。然而,,最近由加利福尼亞大學(xué)牽頭的一項研究表示,目前的匿名化技術(shù)還不夠成熟,,并不能保證數(shù)據(jù)的有效清除,。不過,未來可以開發(fā)更復(fù)雜的數(shù)據(jù)收集方法,,以更好地保護隱私,。
不管技術(shù)能力如何,醫(yī)學(xué)專家建議醫(yī)學(xué)界重新考慮患者隱私的整個概念,。隨著醫(yī)療系統(tǒng)變得更加復(fù)雜,,將有更多的機構(gòu)有合法合理的需求去訪問敏感的患者信息。Char在論文中寫道:“機器學(xué)習(xí)系統(tǒng)的實現(xiàn),,意味著我們需要重新認識醫(yī)療數(shù)據(jù)隱私和其他職業(yè)道德核心原則,。”在實踐中,,醫(yī)院和機構(gòu)需要贏得患者的信任,。患者有權(quán)利了解他們的醫(yī)療隱私數(shù)據(jù)是如何被使用的,,以及數(shù)據(jù)是會使他們自身受益或只能讓未來的患者受益,。