實施策略

負責任AI三大落地實施策略

一、 資安維護及隱私保護遵循資安法規與標準

本院內部為確保病患資料的保護與系統安全,定期進行維護與資安稽核以《醫療機構資通安全管理指引》、《資通安全管理法》及《個人資料保護法》作為重要指引參考,以確保系統安全及隱私保護符合衛生福利部之資安規範。

二、 標準化管理流程確保AI應用安全

本中心相關法規與標準,制定標準化流程涵蓋AI產品申請、審核及持續監測三大核心環節,以確保負責任AI應用的安全性與隱私保護,為醫療團隊及使用者提供更可靠的智慧醫療把關。

三、 九大透明性原則及可解釋性分析

透過九大透明性原則結合可解釋性分析(Explainability Analysis)確保醫療AI的決策過程可理解、可信賴並為醫療機構提供清晰的監管框架。

依據九大透明性原則裡的量化指標及可解釋性分析為標準依據,定期監測與管理機制為負責任AI落地管理重要原則,並落實停用或再調校機制,具有明確啟動停用程序權責單位、標準化作業流程、標準下限值等定義與執行方式。

本中心的目標是在新AI產品進入醫院執行時,導入負責任AI管理機制,確保AI決策過程資訊透明,有利於醫療使用團隊可理解,讓AI技術能真正提升醫療效益,而非增加風險。

九大透明性原則

  1. AI詳情與輸出
    描述AI系統分析的細節和輸出的具體結果。
  2. AI目的
    明確AI系統的主要目的,如輔助診斷、提高早期發現率等。
  3. AI的警告範圍外使用
    說明AI系統不應該用於哪些範圍,以避免誤用。
  4. AI開發詳情及輸入特徵
    描述AI系統的開發過程及所使用的數據特徵。
  5. 確保AI開發公平性的過程
    描述為確保AI系統公平性所採取的措施。
  6. 外部驗證過程
    描述AI系統如何在不同環境中進行外部驗證。
  7. 模型表現的量化指標
    提供AI系統性能的具體數據和治標。
  8. AI實施與使用的持續維護
    描述AI系統的維護和更新計劃。
  9. 更新和持續驗證或公平性評估計畫
    描述AI系統的持續更新和公平性評估計劃。

AI生命週期管理

人工智慧在醫療領域的應用須確保安全性、合規性及持續有效性,因此AI生命週期管理(AI Lifecycle)成為醫院導入AI的重要管理機制。AI技術應用全程均需納入風險評估與監測,以確保模型的穩定性、準確性與透明性。

醫院作法:監測標準與應變機制

本院對導入的AI技術採取全生命週期監測機制,透過以下措施確保其安全與穩定性:

  1. 監測標準:
    • 依據九大透明性原則與可解釋性分析,訂定可量化的監測指標,如模型準確度、偏差率、解釋性評估分數等。
    • 定期(如每年)進行監測,以確保AI系統符合標準。
  2. 異常應變機制:
    • 若監測指標低於規範下限,負責任AI執行中心即啟動AI停用機制,防止潛在風險擴大。
    • 相關異常將提報至負責任AI智慧醫療委員會進行審查,確保決策透明。
  3. 修正與重新驗證:
    • 停用後,原申請單位須重新驗證並校調AI模型,確保其達到標準要求。
    • 直至監測指標數據回復至合格範圍,才允許恢復AI應用,確保臨床決策輔助的安全性與可靠性。

透過上述機制,我們確保醫療AI應用符合臨床標準與監管要求,讓AI技術在醫療場域發揮價值,同時保障病患安全。