AI基本法借鏡海外 美專法重競爭、歐盟南韓有罰則
立法院去年底通過AI基本法前,美、歐、日、韓都已相繼制訂AI專法或政策計畫,目標不外乎推進AI研發並明定應如何管制風險。其中,美國著重競逐技術主導地位,與日本同樣仰賴既有法規框架,未新設罰則,這一點似乎與我國類似。歐盟則強調管理風險,與南韓均能處罰企業。
歐盟歐洲議會二○二四年三月率先通過「AI法」,依據風險高低管理AI。該法認為風險最高而禁用的AI應用,包括使用政治、宗教等敏感個人特質建立生物辨識歸類系統等。
南韓國會二○二四年十二月通過「AI發展與建立信任基本法」(AI基本法),今年一月生效,確立政府在AI研發、資料訓練政策、應用推廣等方面提供支持的基礎,同時定義作為監管目標的高風險AI和生成式AI,防止技術限制或AI誤用濫用導致的潛在問題。
美國拜登政府二○二三年曾發布行政命令,要求制定AI使用過程涉及安全、公平、公民權利、國安的相關指引,但川普新政府未延續,去年七月公布新的「AI行動計畫」,以放寬環境規範,並大幅擴大對盟友的AI出口,來維持美國對中國大陸的AI技術領先優勢。
日本去年五月也通過首部AI專法,簡稱「AI推進法」,同年九月完整生效,以促進AI應用並應對AI濫用風險,從而緩解公眾擔憂,意在支持而非限制AI開發和應用。
美國智庫戰略國際研究中心指出,美、日監管方式相似,尋求借助在特定領域的既有法律法規框架,也偏好針對特定產業和應用個案,進行與特定風險相應的監管。各國AI政策的差異也反映國家戰略。
其中,美國明確目標是競逐技術主導地位,視AI為能改變地緣政治權力平衡的戰略資產,日本則優先考慮促進大眾對AI的信任,是聚焦產業政策、合作式路線。