英國實施支持創新的AI監管原則 資策會科法所關注AI監管新趨勢

分享本文


(中央社訊息服務20240702 15:43:44)隨著ChatGPT推出,各種生成式AI應用大爆發成為AI發展的轉捩點,從美國拜登總統簽署「安全、可靠且可信任之AI開發及利用行政命令」(Executive Order on the Safe, Secure, and Trustworthy Development and Use of AI)、歐盟通過「人工智慧法」(Artificial Intelligence Act)可看出國際重視AI監管及風險評估議題。英國政府亦於2023年3月發布「AI監管白皮書」(AI Regulation White Paper),進一步闡述支持創新的AI監管方法。財團法人資訊工業策進會科技法律研究所(資策會科法所)長期關注國際AI法制趨勢,持續觀察AI監管新趨勢。

圖一:英國監管機關對AI之策略方針更新進程。

英國政府在AI監管白皮書的基礎上,於2024年2月6日發布「英國實施AI監管原則:監管機構初步指南」(Implementing the UK’s AI regulatory principles: initial guidance for regulators),列出監管機關針對AI監管必須考慮五大要素,以要求AI開發者及部署者在其監管範圍內遵守其義務降低風險,包括:

(一) 安全、資安及穩健性:AI系統在整個生命週期中應持續識別、評估和管理風險,以確保系統的穩健性、安全性和資安。
(二) 適當的透明度和可解釋性:鼓勵開發者和部署者在使用者受到影響或與AI系統互動時,以簡單明瞭的方式解釋AI系統的目的、系統的決策過程及輸出結果可能的用途,以促進使用者對AI的信任。
(三) 公平:AI系統生命週期各個階段的使用、輸出結果須公平且符合相關法律規範,避免歧視個人或造成不公平的市場結果。
(四) 責任與治理:制定治理措施,以確保能有效監督AI系統的供應和使用,並在整個AI生命週期中清楚界定責任。
(五) 可異議性與補救措施:使用者、受影響的第三方及AI生命週期中的利害關係人應能夠對有害或產生不利影響的AI決策或結果提出異議。

圖二:英國AI監管原則與參考標準。

英國將在初步指南基礎上進行擴展,參考監管機關及利害關係人的回饋意見,提供相關機制與資源,後續亦將與監管機關合作,確認在不同監管範圍內所需要的潛在聯合工具(potential joint tools)。資策會科法所副法律研究員許嘉芳觀察,2024年5月英國政府正式要求各機關說明如何依AI監管白皮書及監管框架的要求進行監管,並提出相關策略方針及未來12個月的計畫與展望。相較於歐盟採取統一立法的模式,英國是分散由各機關依其職權範圍,以更自律及軟性方式進行監管,後續英國監管框架的發展方向值得持續關注。

資策會科技法律研究所

【新聞聯絡人】
資策會科法所 顏翩翩
Tel: (02) 6631-1084
Email: [email protected]

標題:英國實施支持創新的AI監管原則 資策會科法所關注AI監管新趨勢

鄭重聲明:本文版權歸原作者所有,轉載文章僅為傳播信息之目的,不構成任何投資建議,如有侵權行為,請第一時間聯絡我們修改或刪除,多謝。