AI衍生醫療糾紛
責任歸誰?

依現行民事訴訟法規定,醫師需負起
無因果關係、無過失之舉證責任,
但基於AI演算法之黑箱特性,醫師如何舉證?

文 / 陳學德 臺灣臺中地方法院法官兼庭長

 
1996年IBM Deep Blue打敗西洋棋王Garryᅠkasparov,2016年Google alphago擊敗多數圍棋棋王,人工智慧(Artificial Intelligence, AI)引起世人矚目。而台北醫學大學附設醫院體系,於 2017年7月引進IBM Watson for oncology醫療臨床決策系統,使臺灣進入AI臨床決策系統時代。

未來AI所做將比人類更加出色
AI是指由人工製造出來之系統所表現出智慧。依其發展階段,可分為:1.弱AI時代( artificial narrow intelligence, ANT):如達文西手術機器人、IBM Watson for oncology、自駕車、語言翻譯、網路銀行、醫療影像辨識等。2.強AI時代( artificial general intelligence, AGI ):在推論和演繹能力上與人類智力相匹敵,甚而超越人類。3.超強AI時代( artificial super intelligence, ASI) :指在強AI基礎上,搭配更強大數據,更快資料處理、分析與決策能力,使AI所做比人類表現得更加出色。目前仍屬弱AI時代,本文即以弱AI時代前提立論。

AI醫療臨床決策系統與法律責任有關者:
(一)AI演算法有難以檢視之黑盒運算現象
         因為AI決策模式具有:
1. 「不可解釋性」(Inexplicability),亦即「黑盒子」(Black-Box)模式,無法清楚說明其為何作此決定理由。
2. 「不可駕馭性」(Uncontrollability),當其學習由監督式進入非監督式,甚而增長式學習時,AI學習能力愈來愈強,所為決定超出開發者當初想像,產生連開發者都無法駕馭結果。


AI系統僅是輔助醫療決策之用
(二)AI醫療爭議法律問題解決方式
         因為AI決策模式具有:
1. 演算法進入醫療臨床決策時,醫師臨床專業裁量空間受到影響。
過去醫師臨床專業裁量,係對抗標準醫療處置僵化與簡化,未來醫師則以臨床專業裁量對抗AI資料庫,而AI資料庫包含病患整體健康資訊資料及大量案例累積資料,則主治醫師臨床觀察能夠超過電腦嗎?是否使醫師面臨無從裁量處境?
目前對醫療AI導入醫院看法多認為,AI系統僅是輔助醫療決策之用,提醒醫師避免決策盲點,最終決定者仍是醫師,醫療處置結果由醫師負責。惟攸關生命且高度不確定性情境下,醫師優先考慮係治療後產生不良結果責任誰承擔?主治醫師是否事後得援引相關證據證明自己處置有合理依據?若存有紀錄之AI系統明示應採A措施,醫師對於自己採取B措施更難說明為何合理。則醫師採取AI決策系統為很自然決定,但對病患為最佳處置?


AI手術出錯爭訟舉證兩難
2.  AI本身演算法不透明性及缺乏內部程式資訊,影響因果關係及過失責任之認定。
AI本身演算法黑箱特性,演算法內部程式也相對複雜。上市後產品因缺乏內部程式資訊及保密性,致使用者難以理解,發生連開發者也無法得知哪個環節出錯。
如達文西手術機器人為目前最先進醫療手術系統,在 2010年的Roland C. Mracek v. Bryn Mawr Hospital; Intuitive Surgical, Inc.案中,訴訟時因製造商具產業獨占,得為訴訟專家或鑑定人,僅有醫師或製造商,法院終以缺少專家證言證明被害人後遺症係機器人故障造成,判決原告敗訴。而在醫療爭訟上,使用AI手術機器人時,因證據偏在,法院依民事訴訟法第277條但書規定命醫師負起無因果關係、無過失之舉證責任,但基於AI演算法之黑箱特性,醫師如何舉證?
在注意義務判斷標準上,在弱AI時代,因產品僅輔助醫師進行決策,由醫師負最終責任,但強AI以上時代,AI精確度成為醫師注意義務標準,若醫師與AI做出不同判斷時,病人傷亡時,醫師有義務舉證自己無過失責任,會導致醫師降低使用此類產品意願。此外,判斷醫師注意義務標準,應以人類平均醫生專業水準或AI系統更精準與低失誤之高標準?

3.  告知後同意範圍
醫療法第81條規定,醫師需主動告知其治療方針及預後情形。當AI臨床決策系統在醫療行為重要性提升後,不排除法院將之納入說明義務可能性。惟醫師未必了解AI臨床決策系統,如何作出建議,認醫師已盡充分告知義務?
伴隨AI醫療機器人逐漸普及,除了傳統告知同意要件外,醫師就不使用AI醫療機器人,負有說明義務日子不遠。而手術常伴隨一定危險,對患者所謂「危險之承擔」,手術時將使用有一定風險AI醫療機器人,對病患等事前充分說明,將選擇委由病患判斷後,採用患者所同意解決方法。


演算法挑戰現行醫療法制
在AI決策黑箱特性下,醫師臨床決策裁量權受到挑戰,AI精確度成為醫師注意義務標準,使用AI與否亦成為說明義務範圍時,如使用AI醫療決策系統所生醫療責任,仍由醫院和醫師負責,醫院是否願意引進無法檢驗其學習資料以及演算法系統之AI醫療設備?事前如何完善醫療品質,或者優化AI醫療系統,恐是更重要議題。
又健保支付與核刪,如以AI決策和大數據分析為依據,對於健保署核刪結果,醫療院所如何申覆?對醫療院所言,適應方式為引進同樣一套決策模型,以規範醫師臨床決策,確保診療行為獲得健保給付,意味由AI系統取代醫師臨床決策權?形同透過健保署支付制度及醫院財務管理制度以達成科技主導醫學核心專業?如何平衡醫療資源效率化管理與醫學核心專業自主這兩端,應是AI醫療倫理首要課題。