在數位化的時代中,人工智慧(Artificial Intelligence,簡稱AI)正快速改變人類的生活,在醫療領域中應用AI也成為時代趨勢。為了促進AI在醫療領域的負責任應用,衛福部自去(2024)年9月啟動「負責任AI執行中心」補助計畫,更委託工業技術研究院執行「負責任AI推廣計畫」,設立專案辦公室來積極推動AI技術穩健導入醫療體系,打造安全可信的臨床輔助工具。
AI在醫療領域的應用雖可帶來益處,但並非毫無風險,如何確保自主性、當責性、隱私、透明、安全、公平與永續,已經成為國際關注的課題,世界衛生組織(WHO)和臺灣的《人工智慧基本法》均強調,如果缺乏適當引導,AI可能會引發倫理與監管挑戰,因此衛福部推出「負責任AI中心」,研擬出一套符合七大倫理價值的AI應用指引,期望在智慧醫療發展的同時,確保倫理與安全。
負責任AI執行中心 提升醫院AI治理能力
衛福部資訊處(簡稱資訊處)處長李建璋表示,AI要落地醫療場域前必須要先解決七大倫理危機,「最好的作法就是負責任AI的使用原則,這個議題已經在歐洲、美國和亞洲各國引發熱烈的討論,而臺灣目前在資訊處的規劃設計後,已經支持10家醫院完成倫理框架的監管辦法,並且確實落地實施」,首先是設立委員會,制定辦法來明定醫院使用AI時如何保護個資、確保資安,相關的技術細節在資訊處都有範本,供醫院參考使用。