圖一:AI示意圖。
近年人工智慧(Artificial Intelligence, AI)科技蓬勃發展,如果妥善運用這些技術,可為各式產業創造巨大經濟效益,並提供國家發展的關鍵競爭優勢。然而,當各界享受AI科技的便利,也可能對個人甚至全體社會造成前所未有的挑戰。現今臺灣面臨AI監管議題,國家科學及技術委員會於今(2024)年7月15日公告《人工智慧基本法》草案,未來各部會擬定或調適AI相關法規時,應可適度參考國際規範。
為了確保使用AI系統時符合尊重人權、民主及法治相關標準,歐洲理事會(Council of Europe)於今年5月17日公布《歐洲理事會AI與人權、民主及法治框架公約》(Council of Europe Framework Convention on artificial intelligence and human rights, democracy, and the rule of law),由歐洲理事會46個成員國、歐盟、11個非成員國(阿根廷、澳大利亞、加拿大、哥斯大黎加、教廷、以色列、日本、墨西哥、秘魯、美國、烏拉圭)共同制定具拘束力的規範,並於同年9月5日開放各國簽署。
上述公約規範內容涵蓋AI系統完整生命週期,試圖解決潛在風險。資策會科法所副法律研究員鄒雅蓓針對這個公約的特色,提出以下三個面向:
一、有彈性的遵循方式:公約規制對象包括使用AI系統的公、私部門,但提供私部門兩種彈性的履行義務方式,其可選擇直接遵守相關義務,或採取其他遵守公約的替代措施,以彌合各國法律制度的差異。
二、透明度及監管要求:締約方必須識別AI系統生成的內容,並評估、預防、減輕潛在風險,進而評估是否有必要暫停、中止或透過其他適當行為,避免使用AI系統時違反人權標準。
三、妥適的問責機制:為確保AI系統尊重平等、禁止歧視、保障隱私,締約方應清楚告知使用者正在與此類系統互動,並提供權利受侵害者相關救濟管道,使其對於AI造成的權利損害得以續行追究賠償。
綜上,若將AI應用的國際人權要求納入立法考量,除可促進技術創新發展,也可兼顧國民人權保障。