實施策略
負責任AI三大落地實施策略
一、 資安維護及隱私保護–遵循資安法規與標準
本院內部為確保病患資料的保護與系統安全,定期進行維護與資安稽核以《醫療機構資通安全管理指引》、《資通安全管理法》及《個人資料保護法》作為重要指引參考,以確保系統安全及隱私保護符合衛生福利部之資安規範。
二、 標準化管理流程確保AI應用安全
本中心相關法規與標準,制定標準化流程涵蓋AI產品申請、審核及持續監測三大核心環節,以確保負責任AI應用的安全性與隱私保護,為醫療團隊及使用者提供更可靠的智慧醫療把關。
三、 九大透明性原則及可解釋性分析
透過九大透明性原則結合可解釋性分析(Explainability Analysis)確保醫療AI的決策過程可理解、可信賴並為醫療機構提供清晰的監管框架。
依據九大透明性原則裡的量化指標及可解釋性分析為標準依據,定期監測與管理機制為負責任AI落地管理重要原則,並落實停用或再調校機制,具有明確啟動停用程序權責單位、標準化作業流程、標準下限值等定義與執行方式。
本中心的目標是在新AI產品進入醫院執行時,導入負責任AI管理機制,確保AI決策過程資訊透明,有利於醫療使用團隊可理解,讓AI技術能真正提升醫療效益,而非增加風險。
九大透明性原則
- AI詳情與輸出
描述AI系統分析的細節和輸出的具體結果。 - AI目的
明確AI系統的主要目的,如輔助診斷、提高早期發現率等。 - AI的警告範圍外使用
說明AI系統不應該用於哪些範圍,以避免誤用。 - AI開發詳情及輸入特徵
描述AI系統的開發過程及所使用的數據特徵。 - 確保AI開發公平性的過程
描述為確保AI系統公平性所採取的措施。 - 外部驗證過程
描述AI系統如何在不同環境中進行外部驗證。 - 模型表現的量化指標
提供AI系統性能的具體數據和治標。 - AI實施與使用的持續維護
描述AI系統的維護和更新計劃。 - 更新和持續驗證或公平性評估計畫
描述AI系統的持續更新和公平性評估計劃。
AI生命週期管理
人工智慧在醫療領域的應用須確保安全性、合規性及持續有效性,因此AI生命週期管理(AI Lifecycle)成為醫院導入AI的重要管理機制。AI技術應用全程均需納入風險評估與監測,以確保模型的穩定性、準確性與透明性。
醫院作法:監測標準與應變機制
本院對導入的AI技術採取全生命週期監測機制,透過以下措施確保其安全與穩定性:
- 監測標準:
- 依據九大透明性原則與可解釋性分析,訂定可量化的監測指標,如模型準確度、偏差率、解釋性評估分數等。
- 定期(如每年)進行監測,以確保AI系統符合標準。
- 異常應變機制:
- 若監測指標低於規範下限,負責任AI執行中心即啟動AI停用機制,防止潛在風險擴大。
- 相關異常將提報至負責任AI智慧醫療委員會進行審查,確保決策透明。
- 修正與重新驗證:
- 停用後,原申請單位須重新驗證並校調AI模型,確保其達到標準要求。
- 直至監測指標數據回復至合格範圍,才允許恢復AI應用,確保臨床決策輔助的安全性與可靠性。
透過上述機制,我們確保醫療AI應用符合臨床標準與監管要求,讓AI技術在醫療場域發揮價值,同時保障病患安全。
