摘要
淺談可解釋性人工智慧於醫學影像之應用
施伶潔 陳祺侑 孫英洲
表格線
在人工智慧演算法不斷進步的時代裡,開發人員不斷嘗試修正深度學習模型,為的就是讓測試出來的模型準確率能夠愈來愈高。然而,這些深度學習模型常常被科學家視為「黑盒子」,也就是說,僅管能夠得到模型預測的結果,但卻無法得知模型在判斷時的邏輯與依據。「黑盒子」的現象可能會使得人們無法驗證模型本質的正確性,在低度容錯的醫療應用上,這樣的模型便不足以信賴,也會大大降低人工智慧應用在醫療領域的可行性。在本篇文章中,我們探討如何對一個已經訓練完成的模型進行解釋,其中常見的方法包括:基於干擾的方法、局部可理解的模型解釋法、顯著圖、生成模型。而當我們發現訓練模型真的存在邏輯錯誤的情況,又該如何從資料集和模型層面去調整我們設計的演算法。最後,我們回過頭來思考「由人類判斷模型邏輯是否錯誤」的這件事情是否合理,為什麼電腦的思考方式一定要是人類能完全理解的呢?也許電腦找出了一個完全正確但是從來沒有任何人類想到的思考模式?期盼這篇文章可以讓大家更深入認識人工智慧的本質,並謹慎小心地使用這些日新月異的技術,更促進其在醫療應用上的發展與創新。(臨床醫學 2023; 91: 78-87)

關鍵詞:

可解釋性人工智慧(explainable artificial intelligence)、深度學習(deep learning)、醫學影像(medical imaging)
表格線