英國政府提交予國會「人工智慧監管規範政策報告」

  英國政府由數位文化媒體與體育大臣(Secretary of State for Digital, Culture, Media and Sport)與商業能源與工業策略大臣(Secretary of State for Business, Energy and Industrial Strategy)代表,於2022年7月18日提交予國會一份「人工智慧監管規範政策報告」(AI Regulation Policy Paper)。內容除定義「人工智慧」(Artificial Intelligence)外,並說明未來政府建立監管框架的方針與內涵。

  在定義方面,英國政府認為人工智慧依據具體領域、部門之技術跟案例有不同特徵。但在監管層面上,人工智慧產物則主要包含以下兩大「關鍵特徵」,造成現有法規可能不完全適用情形:

(1)具有「適應性」,擅於以人類難以辨識的意圖或邏輯學習並歸納反饋,因此應對其學習方式與內容進行剖析,避免安全與隱私問題。

(2)具有「自主性」,擅於自動化複雜的認知任務,在動態的狀況下持續判斷並決策,因此應對其決策的原理原則進行剖析,避免風險控制與責任分配問題。

  在新監管框架的方針方面,英國政府期望所提出的監管框架依循下列方針:

(1)針對技術應用的具體情況設計,允許監管機構根據其特定領域或部門制定和發展更詳細的人工智慧定義,藉以在維持監管目標確定與規範連貫性的同時,仍然能實現靈活性。

(2)主要針對具有真實、可識別與不可接受的風險水準的人工智慧應用進行規範,以避免範圍過大扼殺創新。

(3)制定具有連貫性的跨領域、跨部門原則,確保人工智慧生態系統簡單、清晰、可預測且穩定。

(4)要求監管機構考量更寬鬆的選擇,以指導和產業自願性措施為主。

  在跨領域、跨部門原則方面,英國政府則建議所有針對人工智慧的監管遵循六個總體性原則,以保障規範連貫性與精簡程度。這六個原則是基於經濟合作暨發展組織(OECD)的相關原則,並證明了英國對此些原則的承諾:

1.確保人工智慧技術是以安全的方式使用

2.確保人工智慧是技術上安全的並按設計運行

3.確保人工智慧具有適當的透明性與可解釋性

4.闡述何謂公平及其實施內涵並將對公平的考量寫入人工智慧系統

5.規範人工智慧治理中法律主體的責任

6.釋明救濟途徑

  除了「人工智慧監管政策說明」外,英國政府也發布了「人工智慧行動計畫」(AI Action Plan)文件,彙整了為推動英國「國家人工智慧策略」(National AI Strategy)而施行的相關行動。前述計畫中亦指出,今年底英國政府將發布人工智慧治理白皮書並辦理相關公聽會。

相關連結
※ 英國政府提交予國會「人工智慧監管規範政策報告」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8891&no=57&tp=1 (最後瀏覽日:2026/01/12)
引註此篇文章
你可能還會想看
歐盟發布新人工智慧規範,以風險程度判斷防止科技濫用

  歐盟執委會於2021年4月21日提出「人工智慧規則」(AI regulation)草案,成為第一個結合人工智慧法律架構及「歐盟人工智慧協調計畫」(Coordinated Plan on AI)的法律規範。規範主要係延續其2020年提出的「人工智慧白皮書」(White Paper on Artificial Intelligence)及「歐盟資料策略」(European Data Strategy),達到為避免人工智慧科技對人民基本權產生侵害,而提出此保護規範。   「人工智慧規則」也依原白皮書中所設的風險程度判斷法(risk-based approach)為標準,將科技運用依風險程度區分為:不可被接受風險(Unacceptable risk)、高風險(High-risk)、有限風險(Limited risk)及最小風險(Minimal risk)。   「不可被接受的風險」中全面禁止科技運用在任何違反歐盟價值及基本人權,或對歐盟人民有造成明顯隱私風險侵害上。如政府對人民進行「社會評分」制度或鼓勵兒童為危險行為的語音系統玩具等都屬於其範疇。   在「高風險」運用上,除了作為安全設備的系統及附件中所提出型態外,另將所有的「遠端生物辨識系統」(remote biometric identification systems)列入其中。規定原則上禁止執法機構於公眾場合使用相關的生物辨識系統,例外僅在有目的必要性時,才得使用,像尋找失蹤兒童、防止恐怖攻擊等。   而在為資料蒐集行為時,除對蒐集、分析行為有告知義務外,也應告知系統資料的準確性、安全性等,要求高度透明化(Transparency obligations)。不只是前述的不可被接受風險及高風險適用外,有限風險運用中的人工智慧聊天系統也需要在實際和系統互動前有充足的告知行為,以確保資料主體對資料蒐集及利用之情事有充足的認知。   在此新人工智慧規範中仍有許多部份需要加強與討論,但仍期望在2022年能發展到生效階段,以對人工智慧科技的應用多一層保障。

日本《第6期科學技術基本計畫方向》建言

  日本《科學技術基本計畫》為依據其科學技術基本法之要求,以每5年為期擬定,目的在於建構一立基於長期性觀點且體系化的科學技術政策,並以之為施政框架,目前實施之科學技術基本計畫,為規劃自2016年至2020年期間施行之第5期科學技術基本計畫。而為形成下一階段之科學技術基本計畫,日本學術會議現公布了「第6期科學技術基本計畫方向」建言,為日本學術會議所屬之學者委員會學術體制分科會經審議後,就上述科學技術基本計畫之擬定發表意見,預計會於內閣府召開之綜合科學技術與創新會議(総合科学技術・イノベーション会議)中提出,作為訂定第6期科學技術基本計畫之重要參考。   本建言除了持續強調投資基礎科學研究的重要性,亦關注學術多元發展與提升整合性,強調優越學術基礎的建構、發展、以及用以解決問題之能力提升,繫諸各領域、地區、個人所關切議題與思考方式之不同所帶出的多元性,而為克服現代社會面臨的各種課題,應注重自然科學與人文社會科學之跨域合作以形成具統合性的知識基礎,同時須平衡投入各學門的研究預算,避免科學技術投資過分集中於特定的學術領域。具體的方向上,本建言主要提供了4個規劃面向:(1)強化對博士生就學的經濟上支援,並增加相關就業機會,如增加大學終身教職員額與高階技術人才職位等;(2)為進一步促成前述的學術多元發展,重新檢討並建構政府資助各類研究之制度藍圖,除了持續資助基礎研究及應用研究之外,強化對年輕學者的補助,亦期待能對需持續性進行之研究(如生命科學等需長時間蒐集並保存資料之領域)提供長期或無限期的支援;(3)追求科研參與者的多元化(如鼓勵女性、外國人、身障者的投入),以實現科學家社群之多元發展;(4)促成科學家社群以個人身分或透過組織參與科學技術政策形成,避免相關政策的擬定與施行未能切合研究實務之需求。

科專研發成果運用證券化模式之法制實踐

美聯社(AP)在紐約對VeriSign提出侵權訴訟以禁止其使用AP所有之新聞報導內容

  美聯社(The Associated Press, AP)於十月九日在「南紐約聯邦地方法院」(SDNY),正式地向世界權威的數碼核證服務供應商VeriSign及其子公司Moreover Technologies提出違反著作權與商標權等侵權訴訟。根據AP向法院所提出的起訴狀中主張七項訴因,內容以被告違反聯邦著作權法及紐約州的商標法等相關法律規定,其中包含VeriSign及Moreover Technologies製造出與AP的虛偽聯結( False Association)而違反了商標法案-Lanham Act等。AP在起訴狀中也主張因被告上開侵權行為及非法侵入AP的電腦主機而違反紐約州「非法侵入他人動產罪」(Trespass to Chattels)之行為,故同時請求聯邦法院准予核發永久禁止令,以禁止被告使用AP所有的新聞報導內容並刪除被告公司電腦內所有屬於AP所有之著作財產權。   本案被告之Moreover Technologies最早標榜透過網路新聞的搜集、分類及傳送的方式,成為提供即時新聞、當前知識及商業資訊之先驅,其在該公司的網頁上使用AP所有超過兩萬五千筆的新聞內容。而同案被告VeriSign,於二○○五年十月份以約略美金三千萬的現金將Moreover Technologies合併。AP的總裁暨執行長Tom Curley表示,任何未得AP之授權同意而自行搭載(Free Riding)使用AP所有之新聞內容之人,其行為已對新聞記者的著作財產權造成莫大的損失,AP從成立至今,已有三十二各新聞記者因公殉職。基於上開理由,AP向法院請求被告因侵權所獲得之利益及懲罰性損害賠償。

TOP