中共中央宣傳部委托新華通訊社主辦

“生病了問AI”,出錯了怎么辦? AI醫(yī)療現狀調查

2025-04-01 09:51
來源:法治日報

今年3月,一名“95后”新手家長面對孩子反復咳嗽發(fā)熱的癥狀,在手機端用AI問診判定孩子為“普通呼吸道感染”,并參考網絡建議居家用藥,致病情延誤。最終,孩子被醫(yī)院確診為病毒感染肺炎。醫(yī)生指出AI問診存在一定風險,應以專業(yè)醫(yī)療意見為準。

此事引發(fā)網絡熱議。AI癌癥早篩、AI肺結核診斷、AI手術機器人、AI導診機器人……近年來,AI技術已在門診導診、臨床輔助診斷、疾病管理等環(huán)節(jié)廣泛應用,尤其是今年年初DeepSeek的問世,更是掀起了一股“生病了問AI”的熱潮。但也有不少人反映,AI醫(yī)療并沒有想象中那么靠譜,看錯病、看不出病的情況時有發(fā)生。

對于AI醫(yī)療,輿論場也涌現出更多的追問,比如:AI醫(yī)療是否會影響到醫(yī)生的地位?如果AI診斷錯誤,誰來負責?如何保護普通人的醫(yī)療數據隱私?如何讓AI醫(yī)療發(fā)展更快、應用更廣?

AI醫(yī)療只是輔助手段

“AI醫(yī)療可以提升醫(yī)療服務的效率,已經在疾病預測、健康管理、影像識別等領域表現出色,能夠為患者提供較為精準的醫(yī)療服務?!敝袊l(wèi)生法學會副會長鄭雪倩向記者介紹,在基層或缺乏專家資源的邊遠貧困地區(qū),可以通過AI進行初步篩查,并為醫(yī)生提供提示或診斷參考,從而優(yōu)化醫(yī)療資源分配、推動分級診療政策落地、提升基層醫(yī)療服務能力。

正因AI醫(yī)療彰顯出諸多優(yōu)勢和巨大潛力,“AI會不會搶醫(yī)生飯碗?”“AI醫(yī)生看病爆火”“AI看病比三甲醫(yī)院醫(yī)生還準”……在最近關于AI醫(yī)療的網絡討論中,相關話題頻繁出圈。“當DeepSeek給出了和主任醫(yī)師一樣的診斷,以后是否還有必要去醫(yī)院?”近期,這樣的疑問也出現在了醫(yī)患對話中。

記者采訪了多位一線醫(yī)務工作者,他們均不反對患者使用“AI問診”。但對“‘AI問診’的結果是否靠譜”“能否作為診療依據”等問題,受訪醫(yī)生都抱著謹慎態(tài)度。他們普遍認為,“AI問診”存在局限,只能作為一種輔助手段,并不能替代醫(yī)生。

北京市某社區(qū)衛(wèi)生服務中心的全科大夫周醫(yī)生坦言,在基層醫(yī)療機構平日里遇到疑難雜癥的情況不多,更多的是高血壓、糖尿病、心臟病等慢性病的老年患者,AI在慢性病隨訪、慢性病管理上還缺少些“人情味兒”。

“以預問診AI為例,有老年患者反映,他有幾個晚上睡不好覺導致頭疼、心慌,AI就有可能把所有有頭疼癥狀的病都列給醫(yī)生,其中絕大多數是無效信息?!敝茚t(yī)生說,疾病的診斷是一個模糊決策,尤其是在社區(qū)這種基層醫(yī)療機構,看病的基本是“老熟人”,往往需要醫(yī)生綜合病史、癥狀等多種信息、根據經驗縮小范圍下診斷,AI目前在這方面還不夠成熟。

“AI醫(yī)療是人工智能在醫(yī)療領域的應用,即通過大數據的分析學習,建模,來輔助或優(yōu)化醫(yī)生在看病治療以及健康管理環(huán)節(jié)的一項技術應用。”在中國衛(wèi)生法學會常務理事、北京市華衛(wèi)律師事務所副主任鄧利強看來,AI醫(yī)療通過機器的學習建模進行數據的分析,讓AI反復學習的確可以幫助識別病癥,但這種建模本身有數據庫的問題,再加上無法把醫(yī)生的診療經驗揉到建模里,所以這種智能診斷不可能完全取代醫(yī)生。

“AI問診缺乏人文情感交流,AI開方無人審核,還可能出現誤診、誤治和AI醫(yī)療的法律主體不明確等問題。因此,AI醫(yī)療應當始終定位于醫(yī)生的輔助工具?!编嵮┵徽f。

持謹慎態(tài)度劃定紅線

隨著AI醫(yī)療在全國逐步落地,一場醫(yī)療領域的巨大變革正在發(fā)生。僅今年2月以來,就有不少醫(yī)院發(fā)布其最新應用成果。

比如,上海瑞金醫(yī)院發(fā)布瑞智病理大模型,AI僅需數秒就能精準識別病理切片中的病灶區(qū)域;北京協和醫(yī)院研發(fā)的“協和·太初”罕見病大模型已進入臨床應用階段;上海市肺科醫(yī)院參與研發(fā)的肺部智能手術規(guī)劃系統(tǒng),將實際手術規(guī)劃時間從數天縮短至2到5分鐘……

雖然有多項成果問世,但對于AI醫(yī)療,不僅是醫(yī)生,相關部門也保持謹慎態(tài)度。記者梳理公開資料發(fā)現,目前針對AI醫(yī)療已出臺多項限制性措施:湖南省醫(yī)保局發(fā)布通知,禁止使用AI自動生成處方,以維護醫(yī)保基金安全和患者權益;北京禁用AI自動生成處方,并成立了互聯網診療監(jiān)管平臺;國家衛(wèi)健委和國家中醫(yī)藥局聯合發(fā)布的《互聯網診療監(jiān)管細則(試行)》明確規(guī)定,人工智能不得替代醫(yī)師本人提供診療服務……

“這些政策和規(guī)定表明,我國在AI醫(yī)療領域已經開始劃定紅線,以確保技術應用的安全性和倫理性?!编嵮┵徽f,醫(yī)療安全底線包括:處方紅線,即AI不得自動生成處方,醫(yī)生必須對診療行為負責;倫理紅線,即AI應用需遵循醫(yī)學倫理,確保患者隱私保護、數據安全和公平性;技術紅線即AI技術需經過嚴格的臨床驗證,確保其在實際醫(yī)療環(huán)境中的有效性和安全性。

受訪專家明確,即便有AI的輔助,醫(yī)生仍是最后把關人,如果醫(yī)生利用AI診療出現誤診、漏診等醫(yī)療事故,最終還是由醫(yī)生承擔責任。

鄧利強認為,由于AI醫(yī)療存在較多法律風險和合規(guī)挑戰(zhàn),這才讓相關部門對AI醫(yī)療的態(tài)度如此謹慎。

“醫(yī)療數據涉及患者的個人隱私,哪些數據可以向研發(fā)AI醫(yī)療的企業(yè)開放并未有明確規(guī)定,而且直接針對醫(yī)療數據開放的法律法規(guī)尚未出臺,無法對數據按照統(tǒng)一技術標準進行清洗處理;對AI誤診的責任界定和相應法律糾紛的處理辦法同樣存在爭議;目前國內醫(yī)療數據共享不足且缺乏標準規(guī)范,制約著AI醫(yī)療產業(yè)的發(fā)展……”鄧利強說,正因有諸多問題亟待解決,所以醫(yī)療保守絕不是落后,恰恰是對生命的負責。

應平衡創(chuàng)新加強監(jiān)管

AI醫(yī)療,今后如何才能更好地發(fā)展?

鄧利強說,應平衡AI醫(yī)療技術創(chuàng)新與合規(guī)監(jiān)管關系。要強化全流程的資質審查機制,即針對AI醫(yī)療和AI處方各個環(huán)節(jié)的主體都必須有診療的資質,這是不能突破的底線。應強化企業(yè)的自律與誠信機制的建立,開發(fā)和使用AI醫(yī)療的企業(yè)都必須依法合規(guī)。需要明確AI醫(yī)療產品的注冊、審批、使用和退出流程,并加強對算法透明度、公平性、隱私保護等關鍵維度的評估與監(jiān)管。

鄭雪倩建議,應建立倫理審查機制,確保AI技術在醫(yī)療領域的應用符合倫理道德要求。還要鼓勵社會各界對AI醫(yī)療技術進行監(jiān)督和評價,形成全社會共同參與的監(jiān)管格局。加大處罰力度,提高違法成本,構建更有效的法律威懾體系。加大正向宣傳引導,提高醫(yī)生和患者對AI技術的接受度是實現技術普及的關鍵。

2025中關村論壇年會期間,AI醫(yī)療成為與會專家熱議話題。與會專家建議,加強監(jiān)管與倫理指導,制定嚴格的數據安全和隱私保護政策,設立醫(yī)療AI倫理委員會。同時,提高模型透明度,發(fā)展可解釋AI技術,使大語言模型在醫(yī)療決策時能夠提供推理過程。例如在腫瘤診斷中,AI需指出影像特征依據,而不是只給結論,還要設定合理的使用范圍。大語言模型適用于醫(yī)學教育、輔助決策和信息檢索,但不應直接用于關鍵診斷或治療決策,最終決策仍需由專業(yè)醫(yī)生作出。

“醫(yī)療從業(yè)人員的確應該積極擁抱發(fā)達的技術,但技術對行業(yè)本身的沖擊以及它是否能實現有溫度的醫(yī)療,也是我們行業(yè)的引領者所需要思考的。我們期待的是,行業(yè)參與者冷靜思考的心和職業(yè)情懷,可以讓技術成為幫手,而不是讓患者的醫(yī)療安全受到影響?!编嚴麖娬f。

責任編輯:王亞冉

熱門推薦