中國互聯(lián)網(wǎng)絡(luò)信息中心于今年11月30日發(fā)布了《生成式人工智能應(yīng)用發(fā)展報告〔2024〕》。數(shù)據(jù)顯示,我國生成式人工智能產(chǎn)業(yè)正以驚人的速度發(fā)展,截至今年6月,用戶規(guī)模已達(dá)2.3億人。人工智能不僅為生活的方方面面帶來了變革,在醫(yī)療領(lǐng)域的突破尤為引人注目。
例如,清華大學(xué)智能產(chǎn)業(yè)研究院推出的"AI醫(yī)院"Agent?。龋铮螅穑椋簦幔煺趦?nèi)測,并計劃于明年全面開放;同時,一個基于六千余本國內(nèi)外醫(yī)學(xué)教材訓(xùn)練的AI醫(yī)學(xué)大模型,已經(jīng)在上海東方醫(yī)院的多個科室開始試點應(yīng)用。
"AI醫(yī)生"的到來預(yù)示著醫(yī)療領(lǐng)域的未來。在這一前沿技術(shù)在帶來便利的同時,不少人卻對此表示擔(dān)憂,"AI醫(yī)生安全嗎?""AI醫(yī)生會泄露我的個人信息嗎?"。如何在保障安全與公正的前提下推動技術(shù)發(fā)展,成為學(xué)界、產(chǎn)業(yè)界和社會共同關(guān)注的課題。
難題一:如何保護患者的隱私?
眾所周知,AI醫(yī)生的廣泛應(yīng)用需要大量的患者數(shù)據(jù),包括個人病史、遺傳信息以及生活方式等敏感內(nèi)容。這些數(shù)據(jù)對AI算法的訓(xùn)練和醫(yī)療決策至關(guān)重要。然而,這種大規(guī)模數(shù)據(jù)收集也帶來了前所未有的隱私泄露風(fēng)險。
一起發(fā)生在國外的數(shù)據(jù)攻擊事件為AI數(shù)據(jù)安全保護敲響了警鐘。2024年12月,數(shù)據(jù)丟失防護解決方案提供商Cyberhaven的Chrome擴展程序遭遇黑客入侵。黑客通過侵入管理員賬戶發(fā)布惡意更新,導(dǎo)致大量用戶的敏感數(shù)據(jù)泄露,其中包括身份驗證會話和Cookie等?!荆薄?/p>
盡管該公司在發(fā)現(xiàn)問題后迅速修復(fù)了漏洞,并采取了補救措施,但這起事件卻暴露了當(dāng)今技術(shù)環(huán)境下,敏感數(shù)據(jù)容易受到攻擊。對于醫(yī)療數(shù)據(jù)這種敏感數(shù)據(jù)而言,一旦泄露后果會更加嚴(yán)重,涉及患者的健康狀況、治療記錄等敏感信息,可能導(dǎo)致身份盜用、健康保險欺詐,甚至影響患者的社會安全。
為了保護患者隱私,開發(fā)人員開始在技術(shù)層面采取更為嚴(yán)格的加密措施。例如,使用聯(lián)邦學(xué)習(xí)(Federated?。蹋澹幔颍睿椋睿纾┘夹g(shù)可以使AI在不直接訪問原始數(shù)據(jù)的情況下完成模型訓(xùn)練,從而防止數(shù)據(jù)外泄。此外,差分隱私(Differential?。校颍椋觯幔悖┘夹g(shù)也被廣泛應(yīng)用,它通過在數(shù)據(jù)中加入隨機噪聲來保護個人隱私,同時確保統(tǒng)計分析的有效性。
在法律層面,可以制定更加全面的隱私保護法規(guī),例如2018年歐盟生效的《通用數(shù)據(jù)保護條例》(GDPR),對AI系統(tǒng)的數(shù)據(jù)使用和存儲提出了更高的要求?!叮牵模校摇访鞔_規(guī)定了數(shù)據(jù)的使用目的必須明確,并禁止將數(shù)據(jù)用于原定目的之外的用途,特別是AI系統(tǒng)不得通過收集個人數(shù)據(jù)來進行二次推斷或分析,從而避免侵犯用戶隱私。此外,條例還對數(shù)據(jù)存儲提出了嚴(yán)格的本地化要求,要求在歐盟境內(nèi)的數(shù)據(jù)應(yīng)在歐盟境內(nèi)存儲和處理,減少數(shù)據(jù)跨境流動的風(fēng)險,從而更好地保護個人隱私。另一方面,《GDPR》還要求數(shù)據(jù)具有可移植性,用戶可以方便地將其在一個平臺上生成的數(shù)據(jù)遷移到其他平臺,增加了用戶對個人數(shù)據(jù)的控制權(quán)?!荆病?/p>
通過這些規(guī)定,技術(shù)與法規(guī)的協(xié)同發(fā)展,為AI醫(yī)生在數(shù)據(jù)安全方面提供了保障,有效地保護了患者的個人隱私。
難題二:如何確保AI醫(yī)生決策的透明性??。粒舍t(yī)生依賴于深度學(xué)習(xí)等復(fù)雜算法來做出醫(yī)療決策,而這些決策過程往往是高度"黑箱化"的。即使AI能提供快速、精準(zhǔn)的診斷建議,但其內(nèi)部工作原理和判斷依據(jù)對患者和醫(yī)生來說,往往難以理解和追溯。這種不透明的決策過程容易引發(fā)患者對AI醫(yī)生的信任問題,尤其是在醫(yī)療決策涉及生命安全時,更是可能引發(fā)倫理和法律爭議。
這樣的擔(dān)憂并非空穴來風(fēng),今年10月份,在一篇發(fā)表于《BMJ?。眩酰幔欤椋簦。Α。樱幔妫澹簦飞系恼撐闹?,來自德國和比利時的研究人員對微軟的Bing?。茫铮穑椋欤铮暨M行測試,評估其在解答常見醫(yī)療問題時的表現(xiàn)。測試結(jié)果令人震驚:在生成的500個答案中,約24%與現(xiàn)有醫(yī)學(xué)知識完全不符,甚至有3%的回答是錯誤得離譜,可能會給患者帶來嚴(yán)重傷害。【3】
這一研究暴露了AI在處理醫(yī)療問題時的重大漏洞--即使AI系統(tǒng)能夠快速生成答案,錯誤的決策依然可能對患者產(chǎn)生致命后果。更重要的是,AI的"黑箱"特性使得這些錯誤往往難以追溯,患者和醫(yī)生無法了解其背后的判斷依據(jù),這無疑增加了人們對AI醫(yī)生信任的難度。
解決AI醫(yī)生決策透明性問題的核心,在于通過提升算法的透明度和可解釋性,使得本來不可控、不可見的"黑箱"轉(zhuǎn)變?yōu)榭煽?、可見的"白箱"。這一思路也得到了國際倫理框架的支持。算法的透明化不僅能夠增強患者與醫(yī)生的信任,也能為診療決策提供清晰的追溯路徑。
為此,許多倫理規(guī)范和標(biāo)準(zhǔn)都強調(diào)了算法透明性的重要性。例如,電氣與電子工程師學(xué)會(IEEE)在其發(fā)布的《人工智能設(shè)計的倫理準(zhǔn)則》第二版中明確提出,增加算法的透明性是其設(shè)計目標(biāo)之一。【4】世界衛(wèi)生組織(WHO)在《衛(wèi)生健康領(lǐng)域人工智能倫理與治理》報告中也強調(diào)了確保算法的可解釋性和可理解性作為倫理原則之一。我國發(fā)布的《新一代人工智能倫理規(guī)范》同樣重視算法的安全性與透明度,提出了清晰的研發(fā)規(guī)范。
難題三、醫(yī)療責(zé)任歸屬該如何界定? 近期,廣東一名副主任檢驗技師在社交媒體上披露了一起震動醫(yī)療界的事故:深圳一家大三甲醫(yī)院的婦科醫(yī)生在使用機器人進行子宮內(nèi)瘤體切除手術(shù)時,導(dǎo)致患者死亡。此事件迅速在醫(yī)療圈引起了廣泛討論,臨床醫(yī)生對手術(shù)機器人使用的安全性產(chǎn)生了強烈分歧。部分醫(yī)生認(rèn)為,手術(shù)機器人雖然可以減輕醫(yī)生的壓力,但過度依賴機器人可能會增加潛在風(fēng)險,甚至導(dǎo)致不可逆的醫(yī)療事故。
這一事件反映了醫(yī)療領(lǐng)域中的一個重要倫理挑戰(zhàn):責(zé)任歸屬問題。近年來,手術(shù)機器人相關(guān)的醫(yī)療事故時有發(fā)生,而醫(yī)療損害糾紛的判決常常面臨責(zé)任劃分的模糊地帶。這樣的案例并非孤例。
據(jù)2024年5月20日一篇發(fā)表于《中國醫(yī)院雜志》上的論文《涉及手術(shù)機器人醫(yī)療損害糾紛案例分析》統(tǒng)計,在2015至2022年間,涉及手術(shù)機器人醫(yī)療損害糾紛的案件高達(dá)63例,涵蓋了泌尿科、胃腸科、婦產(chǎn)科等多個領(lǐng)域。由于手術(shù)過程中的高技術(shù)依賴,患者死亡或出現(xiàn)重大并發(fā)癥時,責(zé)任究竟應(yīng)由開發(fā)機器人技術(shù)的公司、使用該技術(shù)的醫(yī)生,還是醫(yī)療機構(gòu)承擔(dān),成為法律界、醫(yī)學(xué)界亟待解決的難題。這類糾紛的頻發(fā)凸顯了AI醫(yī)療技術(shù)發(fā)展過程中,法律框架尚未完善的現(xiàn)實困境。【5】
針對AI醫(yī)生在醫(yī)療責(zé)任歸屬上的不明確問題,國家和地方政府已經(jīng)開始采取措施,明確AI技術(shù)在醫(yī)療中的使用邊界與責(zé)任界定。2022年,國家衛(wèi)健委發(fā)布了《關(guān)于印發(fā)互聯(lián)網(wǎng)診療監(jiān)管細(xì)則(試行)的通知》,明確規(guī)定"醫(yī)師接診前需進行實名認(rèn)證,確保由本人接診",并強調(diào)"其他人員、人工智能軟件等不得冒用、替代醫(yī)師本人接診"。這意味著,在互聯(lián)網(wǎng)診療中,AI不能完全取代醫(yī)生的角色,醫(yī)師依然需要對診療結(jié)果負(fù)最終責(zé)任。
此外,湖南省醫(yī)保局也出臺了《關(guān)于規(guī)范手術(shù)機器人輔助操作系統(tǒng)使用和收費行為的通知》,要求醫(yī)療機構(gòu)按照設(shè)備的注冊證適用范圍和臨床手術(shù)使用指征合理使用手術(shù)機器人輔助操作系統(tǒng),并禁止超范圍或過度使用。
這些政策為AI醫(yī)生在醫(yī)療實踐中的合法使用提供了明確框架,確保了醫(yī)生在技術(shù)輔助下依然承擔(dān)起醫(yī)療決策的最終責(zé)任,從而減少了責(zé)任劃分模糊帶來的法律風(fēng)險。通過這樣的政策和法律保障,可以為AI醫(yī)生在醫(yī)療領(lǐng)域的應(yīng)用建立起更為清晰的責(zé)任界定,減少因技術(shù)問題導(dǎo)致的法律糾紛,推動AI與醫(yī)療行業(yè)的融合發(fā)展。
結(jié)語
數(shù)據(jù)安全,決策透明,乃至責(zé)任界定,這些問題會一直困擾整個AI醫(yī)生的行業(yè)。為了解決這些問題,需要各方力量的緊密合作--技術(shù)創(chuàng)新必須與嚴(yán)格的法律法規(guī)和倫理規(guī)范相輔相成。只有在確保安全性、透明性和公正性的前提下,AI醫(yī)生才能真正為醫(yī)療行業(yè)帶來長遠(yuǎn)的價值,成為保障公眾健康、提升醫(yī)療質(zhì)量的重要力量。
參考資料:
【1】Cybersecurity News.?。ǎ玻埃玻?,?。模澹悖澹恚猓澹颉。玻罚。茫猓澹颍瑁幔觯澹睢。茫瑁颍铮恚濉。澹簦澹睿螅椋铮睢。瑁幔悖耄澹洌。澹穑铮螅椋睿纭。螅澹睿螅椋簦椋觯濉。洌幔簦幔。茫猓澹颍螅澹悖酰颍椋簦。危澹鳎螅。遥澹簦颍椋澹觯澹洹。模澹悖澹恚猓澹颉。常?,?。玻埃玻?,?。妫颍铮怼。瑁簦簦穑螅海悖猓澹颍螅澹悖酰颍椋簦睿澹鳎螅悖铮恚悖猓澹颍瑁幔觯澹睿悖瑁颍铮恚澹澹簦澹睿螅椋铮睿瑁幔悖耄澹洌?/p>
【2】European Parliament?。Α。茫铮酰睿悖椋臁。铮妗。簦瑁濉。牛酰颍铮穑澹幔睢。眨睿椋铮睿。ǎ玻埃保叮。遥澹纾酰欤幔簦椋铮睢。ǎ牛眨。玻埃保叮叮罚埂。铮睢。簦瑁濉。穑颍铮簦澹悖簦椋铮睢。铮妗。穑澹颍螅铮睿幔臁。洌幔簦帷。ǎ牵模校遥。希妫妫椋悖椋幔臁。剩铮酰颍睿幔臁。铮妗。簦瑁濉。牛酰颍铮穑澹幔睢。眨睿椋铮睿。粒觯幔椋欤幔猓欤濉。幔簦骸。瑁簦簦穑螅海澹酰颍欤澹澹酰颍铮穑幔澹酰欤澹纾幔欤悖铮睿簦澹睿簦牛危裕兀裕??uri=CELEX%3A32016R0679
【3】Andrikyan W,?。樱幔恚澹簦椋睿纾澹颉。樱?,?。耍铮螅妫澹欤洹。?, et alArtificial intelligence-powered chatbots in?。螅澹幔颍悖琛。澹睿纾椋睿澹螅骸。帷。悖颍铮螅螅螅澹悖簦椋铮睿幔臁。螅簦酰洌。铮睢。簦瑁濉。瘢酰幔欤椋簦。幔睿洹。颍椋螅耄蟆。铮妗。洌颍酰纭。椋睿妫铮颍恚幔簦椋铮睢。妫铮颉。穑幔簦椋澹睿簦螅拢停省。眩酰幔欤椋簦。Α。樱幔妫澹簦。校酰猓欤椋螅瑁澹洹。希睿欤椋睿濉。疲椋颍螅簦骸。埃薄。希悖簦铮猓澹颉。玻埃玻矗。洌铮椋骸。保埃保保常叮猓恚辏瘢螅玻埃玻矗埃保罚矗罚?/p>
【4】Institute?。铮妗。牛欤澹悖簦颍椋悖幔臁。幔睿洹。牛欤澹悖簦颍铮睿椋悖蟆。牛睿纾椋睿澹澹颍蟆。ǎ桑牛牛牛。ǎ玻埃玻保。牛簦瑁椋悖幔欤欤。粒欤椋纾睿澹洹。模澹螅椋纾睿骸。痢。郑椋螅椋铮睢。妫铮颉。校颍椋铮颍椋簦椋椋睿纭。龋酰恚幔睢。祝澹欤欤猓澹椋睿纭。鳎椋簦琛。粒颍簦椋妫椋悖椋幔臁。桑睿簦澹欤欤椋纾澹睿悖濉。幔睿洹。粒酰簦铮睿铮恚铮酰蟆。樱螅簦澹恚蟆。ǎ玻睿洹。澹洌。桑牛牛牛?/p>
【5】朱鐘銳,馬輝. 涉及手術(shù)機器人醫(yī)療損害糾紛案例分析[J]. 中國醫(yī)院,2024,28(5):72-74.?。模希桑海保埃保梗叮叮埃辏椋螅螅睿保叮罚保埃担梗玻玻埃玻矗担保罚?/p>
注:文章來源于網(wǎng)絡(luò),如有侵權(quán),請聯(lián)系刪除