負責任AI推廣計畫 邁向智慧醫療時代
從AI治理能力著手 建構可信任的體系
受訪對象|衛福部資訊處處長李建璋
文字撰寫|黃倩茹
享新知
人氣(10)
衛福部從啟動「負責任AI推廣計畫」開始,推動臺灣邁向智慧醫療時代,輔導10家醫院建立AI治理能力,逐步解決AI在落地、取證和健保給付的問題,推動AI真正落實於醫療領域,其中多項成果領先全球。
 
在數位化的時代中,人工智慧(Artificial Intelligence,簡稱AI)正快速改變人類的生活,在醫療領域中應用AI也成為時代趨勢。為了促進AI在醫療領域的負責任應用,衛福部自去(2024)年9月啟動「負責任AI執行中心」補助計畫,更委託工業技術研究院執行「負責任AI推廣計畫」,設立專案辦公室來積極推動AI技術穩健導入醫療體系,打造安全可信的臨床輔助工具。

AI在醫療領域的應用雖可帶來益處,但並非毫無風險,如何確保自主性、當責性、隱私、透明、安全、公平與永續,已經成為國際關注的課題,世界衛生組織(WHO)和臺灣的《人工智慧基本法》均強調,如果缺乏適當引導,AI可能會引發倫理與監管挑戰,因此衛福部推出「負責任AI中心」,研擬出一套符合七大倫理價值的AI應用指引,期望在智慧醫療發展的同時,確保倫理與安全。

負責任AI執行中心 提升醫院AI治理能力
衛福部資訊處(簡稱資訊處)處長李建璋表示,AI要落地醫療場域前必須要先解決七大倫理危機,「最好的作法就是負責任AI的使用原則,這個議題已經在歐洲、美國和亞洲各國引發熱烈的討論,而臺灣目前在資訊處的規劃設計後,已經支持10家醫院完成倫理框架的監管辦法,並且確實落地實施」,首先是設立委員會,制定辦法來明定醫院使用AI時如何保護個資、確保資安,相關的技術細節在資訊處都有範本,供醫院參考使用。
李建璋向與會來賓說明未來醫療AI的推動計畫與發展目標。
負責任AI的使用原則可以歸納為3件事情;第一就是符合資安與隱私保護原則的管理辦法,建議可依循美國《健康保險可攜性與責任法案》或歐盟《通用資料保護條例》之原則,進行適當之隱私保護;應落實資訊安全防護機制,以降低系統被入侵或資料遭濫用的風險。其次是透明性原則與可解釋性分析,當AI工具在臨床場域使用的時候,必須要公布九大透明原則,包括AI的資料來源、訓練模型、驗證資料、適用的臨床情境、衛福部食品藥物管理署(簡稱食藥署)或其他醫學審核機構的驗證結果等,讓AI工具透明;可解釋性分析,解釋和理解人工智慧模型如何做出預測或決策的技術和方法,可解釋性分析在醫療領域尤其重要,可以提供人工智慧系統決策過程的洞見,確保臨床醫師能夠理解和驗證AI輸出的結果;第三是AI工具的生命週期管理和本地測試,由於AI工具出廠的時候,所測試的資料並不是全國性的代表樣本,因此當AI工具落地到每一家醫院時,都要做本地資料的再驗證,且這些資料必須重複驗證,每6個月到1年間,AI工具必須重新測試驗證一次,提供去識別化的資料重新訓練,當達到標準後,才能重新上架使用。
衛生福利部  Ministry of Health and Welfare
地址:115204 台北市南港區忠孝東路6段488號
電話:
886-2-8590-6666
Copyright2024 衛生福利部 版權所有