1、數(shù)據(jù)泄露問題
醫(yī)療數(shù)據(jù)包括患者的身份信息、健康狀況、疾病診療情況、生物基因信息等,不僅涉及患者隱私,還具有特殊的敏感性和重要價值,一旦泄露,可能給患者帶來身心困擾和財產(chǎn)損失,甚至對社會穩(wěn)定和國家安全造成負面影響。然而,醫(yī)療AI的研發(fā)與應用,必須依賴大量的醫(yī)療數(shù)據(jù)用于算法訓練,數(shù)據(jù)量越大、越多樣,其分析和預測的結果將越精準。但數(shù)據(jù)收集、分析處理、云端存儲和信息共享等大數(shù)據(jù)技術的應用,加大了數(shù)據(jù)泄露的風險。
事實上,近年來醫(yī)療行業(yè)已經(jīng)成為數(shù)據(jù)泄露的重災區(qū)。2017年全球15%的數(shù)據(jù)泄露事件來自醫(yī)療保健行業(yè),僅次于金融業(yè)。我國醫(yī)療數(shù)據(jù)泄露事件也不鮮見。據(jù)《法制日報》2017年9月報道,某部委醫(yī)療信息系統(tǒng)遭到黑客入侵,被泄露的公民信息多達7億多條,8000多萬條公民信息被販賣。2018年多家醫(yī)療機構計算機系統(tǒng)被勒索病毒攻擊。2020年4月,某AI醫(yī)學影像公司遭黑客入侵,其AI輔助系統(tǒng)和訓練數(shù)據(jù)被竊取,并以4比特幣(約合18萬人民幣)的價格在暗網(wǎng)上公開出售。這也是國內首家被曝數(shù)據(jù)泄露的醫(yī)療AI公司案例。
2、醫(yī)療安全問題
盡管醫(yī)療AI被賦予了準確、高效、安全等優(yōu)點,但醫(yī)療活動本身具有一定的風險性和不確定性,加上手術機器人等醫(yī)療AI在應用中需要密切接觸患者身體或直接作用于人體某些器官,不可避免地面臨潛在風險。主要包括技術和人為兩方面的因素。
從技術來看,國內醫(yī)療AI的發(fā)展在當前還處于起步階段,產(chǎn)品性能還不穩(wěn)定,也缺乏相應的標準和規(guī)范,安全性還有待考證,需要在實踐中不斷調試改進。即使是較為成熟的進口產(chǎn)品,也存在諸多問題。據(jù)美國媒體報道,使用沃森腫瘤解決方案的醫(yī)生發(fā)現(xiàn),沃森經(jīng)常會推薦不準確甚至錯誤的治療建議。如果醫(yī)生據(jù)此決策,后果難以設想。
人為因素主要是醫(yī)生操作不當。在現(xiàn)階段,醫(yī)療AI還只是機器或程序,它不能根據(jù)實際情況調整自己的行為,必須依賴醫(yī)生對機械進行操控或做最終決策。在應用之初,醫(yī)生可能因經(jīng)驗不足、操作不熟練而引發(fā)機器故障,有的甚至會造成嚴重后果。如2015年2月,英國首例機器人心臟手術過程中出現(xiàn)“機器失控”,主刀醫(yī)生在慌亂中應對失當,最終導致手術失敗,患者一周后死亡。這起事故的原因,除機器故障外,與主刀醫(yī)生操作經(jīng)驗不足、未充分估計手術風險有很大關系。
3、責任界定問題
傳統(tǒng)醫(yī)療模式下,醫(yī)療機構和醫(yī)生是醫(yī)療服務的責任主體。引入AI后,改變了傳統(tǒng)的醫(yī)患關系格局,醫(yī)生與患者之間增加了“AI醫(yī)生”及其設計制造商,這就使得醫(yī)療責任認定問題變得復雜起來。一方面,在當前技術條件下,無論是人類醫(yī)生,還是醫(yī)療AI,都不能達到100%的準確率,出現(xiàn)誤診和漏診在所難免。如果在診治過程中,醫(yī)生依賴AI出具的報告做出錯誤的判斷,給患者的疾病診治和身心健康帶來傷害時,其責任到底該由誰來承擔?另一方面,隨著AI技術的發(fā)展,今后的AI將擁有越來越強大的自主能力,在醫(yī)療活動中將扮演越來越重要的角色,甚至可能獨立做出診斷結果,醫(yī)療責任界定問題將更加突出。當醫(yī)療AI作為直接“參與者”,在手術、康復訓練和護理中出現(xiàn)傷害患者的異常行為,或間接性地對患者造成欺騙性、虛幻性消極影響時,是否可以追究它們的倫理責任和道德義務?它們是否具有或在多大程度上具有承擔醫(yī)療責任的能力?因此,有必要加強醫(yī)療AI背景下的風險責任規(guī)制,以確保患者和公眾的健康權益。
4、公平受益問題
AI應用于醫(yī)療領域,大大提高了診療效率和精準度,無疑會給患者帶來巨大福音,但也存在不能公平受益的問題。一方面,由于醫(yī)療AI是新興的醫(yī)學高新技術,在目前階段還屬于稀缺資源,加上醫(yī)療AI的研發(fā)成本高昂,因而在臨床應用中收取費用較高,且一般不在醫(yī)療保險報銷范疇。這就使得醫(yī)療AI成為少部分人群能夠享用的技術,大多數(shù)患者由于經(jīng)濟能力有限,只能望機興嘆。另一方面,基于算法和大數(shù)據(jù)的AI程序并非完全客觀公正,其中可能隱含著某些偏差或歧視。這些偏差或歧視可能來自算法設計者的價值偏好,也可能來自有偏見的訓練數(shù)據(jù),還可能來自輸入數(shù)據(jù)的抽樣偏差。由于深度學習是一個典型的“黑箱”算法,具有不透明性和不可解釋性,從而使這些偏見難以被覺察,并在深度學習中被不斷復制和放大,最終導致預測結果的偏差,可能使某些人群在醫(yī)療評估中受到歧視性對待,甚至可能引發(fā)醫(yī)療安全事故。
5、醫(yī)務人員的未來定位問題
AI有著遠超人類的學習能力和計算能力,其準確、高效和不知疲倦等優(yōu)勢,將極大提高工作效率,降低勞動成本,并逐步取代越來越多的人工勞動。2017年,英國一家名為“改革”的智庫發(fā)布報告稱,機器人未來將有可能取代英國公共部門近25萬個崗位。在醫(yī)療領域,AI正逐漸取代人類從事一些簡單的醫(yī)療后勤和技術工作,如智能導診、微信掛號繳費、機器人發(fā)藥等,并在醫(yī)學影像、輔助診療等核心醫(yī)療環(huán)節(jié)發(fā)揮著越來越重要的作用,醫(yī)師的主體性地位日益受到挑戰(zhàn)。由此引發(fā)了人們對醫(yī)務人員是否能被AI取代的爭論。
醫(yī)療行業(yè)有其特殊性,涉及人與人之間的溝通和交流,需要醫(yī)生的個人經(jīng)驗和情感投入,這是AI無法取代的。我國醫(yī)療資源短缺,基層醫(yī)生經(jīng)驗不足,有了AI的輔助,醫(yī)務人員不僅可以更好地診治患者,還可把更多的精力用于與患者溝通,給予患者更多的人文關懷。從這一點來看,AI不僅無法取代醫(yī)務人員,還會使他們的工作更有價值,更有人情味,更能回歸醫(yī)學是人學的本質。但是,醫(yī)療AI的應用,必將推動現(xiàn)有醫(yī)療模式發(fā)生變革,也必將對醫(yī)務人員提出更高的要求,如果醫(yī)務人員不能及時完善知識結構,提升溝通技巧和人文素養(yǎng),是難以勝任AI時代的醫(yī)療工作的。
6、患者信任問題
醫(yī)療技術的發(fā)展最終是為患者服務的,必須關注患者對醫(yī)療AI的信任問題。據(jù)筆者的一項調查顯示:雖然大多數(shù)患者對醫(yī)療AI持樂觀、期待態(tài)度,表示對擁有智能醫(yī)療設備的醫(yī)院會更加信任,但對AI應用于臨床診斷和治療,患者的接受度和信任度并不高,且AI介入的工作越多,占據(jù)的角色越重,患者的接受度和信任度反而越低。
分析其發(fā)因,主要有兩個方面:一是當前的醫(yī)療AI還處于初級階段,患者對其缺乏深層次了解,加上很多技術尚未成熟,患者對其安全性、易用性等心存擔憂,因而對其在醫(yī)療活動中的深度介入持戒備心理。二是醫(yī)療AI改變了傳統(tǒng)的就醫(yī)模式和醫(yī)患關系,“醫(yī)”不再只是有情感的人,也可以是智能機器或程序,傳統(tǒng)的醫(yī)患交流可能更多地變成“人機對話”。因此,面對不會說話、冷冰冰的機器,患者對其溝通能力、理解能力以及應變能力等存在懷疑態(tài)度,進而影響到他們對醫(yī)療AI的信任度。可見,AI能否在醫(yī)療領域順利應用,還需過患者信任這一關。
責編AJX
-
AI
+關注
關注
87文章
31490瀏覽量
269978 -
數(shù)據(jù)分析
+關注
關注
2文章
1460瀏覽量
34121 -
智慧醫(yī)療
+關注
關注
9文章
1070瀏覽量
46566
發(fā)布評論請先 登錄
相關推薦
評論