英國於2016年11月底通過「調查權力法案」(Investigatory Powers Act 2016),該法案的部分內容已於同年12月30日生效,主要係將目前執法機關和情資單位之通信及相關資料蒐集的權力整併,並訂定了通信監察書(Interception Warrants)授權及監督之方式,以及要求業者保留網路連結記錄以供執法機構識別網路使用者。法案共分為九個章節,分別為:
1.一般隱私保護
2.合法監聽通信
3.取得通信資料之授權
4.通信資料之保留
5.設備干擾
6.大量授權
7.大量個人資料之授權
8.監督措施
9.其他及一般規定
調查權力法案通過後,使英國政府得以合法的監控人民許多行為,包括蒐集、查看民眾的網絡瀏覽記錄、通訊資料、通聯紀錄及相關個人資料等,而監控範圍不再限於個體,並擴大至全體民眾。此外,必要時警方及安全部門亦得破解或遠端遙控人民之電腦或手機。法案並要求通信服務提供商(Communication Service Providers, CSPs)將民眾之網路使用紀錄相關資料保存至少12個月,而近50個不同之機關都能夠查看該些資料,如警察局、國防部、司法局、金融行為監管局,甚至與國家安全較無關連的食品標準局及勞動和退休金部等部門,均有查看之權限。
法案目前生效的部分包括政府蒐集和保留民眾資料之權力,以及得強迫握有民眾資料的科技公司或相關單位,將所掌握關於民眾的資料交給情報機構。
英國政府認為,在面臨現今高度安全威脅之情況下,網路已成為恐怖份子用來犯罪的新工具,故有必要讓執法與情資單位擁有維護人民安全的權力,確保政府具備對抗該挑戰的能力,使情資單位得以阻止新型態之犯罪並追訴參與犯罪之相關人員。
然而,該法案已遭數萬人民連署反對,要求廢除該法案,因人民於網路上進行的各樣活動,均將遭受國家的監視,而負責機關也將面臨負荷龐大的資訊處理量,且一般人民之個人資訊亦將暴露在巨大的風險下。
目前法案部分內容尚未生效,如網路連線紀錄(Internet Connection Records)的蒐集,因相關安全機制尚未建立完成。但可想而知,該法案所造成的爭議,已成為英國民眾所關注之焦點,而未來全面生效後,英國政府該如何面對這些反對的衝擊,則可繼續觀察。
根據中國大陸最高人民法院(以下簡稱高法)2014年11月3日公布之《最高人民法院關於北京、上海、廣州知識產權法院案件管轄的規定》,大陸地區將陸續於北京、上海、廣州成立知識產權法院(即我國的智慧財產法院)。另據高法6日新聞報導,北京知識產權法院已於同月6日掛牌成立,至於上海、廣州兩地法院也將於年內正式成立。 大陸地區成立知識產權法院係本年8月31日由其第12屆全國人民代表大會常務委員會第10次會議所決定的,初步將於北京、上海、廣州三地成立專責法院。根據前開規定第1條,知識產權法院管轄的第一審案件包括三類:一、專利、植物新品種、集成電路布圖設計(即我國之積體電路布局)、技術秘密、計算機軟件等技術類民事和行政案件;二、對國務院部門或者縣級以上地方人民政府涉及著作權、商標、不正當競爭等行政行為提起訴訟的行政案件;三、涉及馳名商標認定的民事案件。 北京、上海、廣州知識產權法院的管轄範圍分別為北京、上海兩直轄市,以及廣東省,前述提及三類相關案件由三地知識產權法院專屬管轄。如有上訴,相關案件均由法院所在地的高級人民法院知識產權審判庭審理,而不再透過該地中級人民法院。且相關法院之法官除依專業進行分類、配置外,亦將設有技術調查官等,以強化專業審判的能力。 隨著科技的日新月異,以及智慧財產相關糾紛或訴訟案件的高度專業化,有關大陸地區成立知識產權法院,或許是為因應趨勢所不得不為之措施,然其具體運作及成效,後續仍值持續關切。
英國民航局發布航空AI監管策略三文件,以因應AI於航空領域之挑戰與機會英國民用航空局(United Kingdom Civil Aviation Authority, CAA)於2024年12月3日發布「CAA對新興AI驅動自動化的回應」(The CAA's Response to Emerging AI-Enabled Automation)、「航空人工智慧與先進自動化監管策略」(Part A:Strategy for Regulating AI and Advanced Automation in Aerospace)以及「CAA 應用AI策略」(Part B: Strategy for Using AI in the CAA)等三份文件。首先,前者概述CAA對於AI應用於航空領域之總體立場,強調以確保安全、安保、消費者保護及環境永續等前提下,促進AI技術在相關航空領域之創新與應用;其次,「航空人工智慧與先進自動化監管策略」著重說明如何於航空領域監管AI技術之使用,以兼顧推動創新並維持安全性及穩健性;最後,「CAA 應用AI策略」則聚焦於CAA內部使用AI技術提升監管效率與決策能力的策略。 由於AI正迅速成為航空產業之重要技術,其應用範圍包含航空器、機場、地面基礎設施、空域、航太、消費者服務等,具有提高航空安全性、運作效率、環境永續性與消費者體驗之潛力。然而,相關技術風險與監管挑戰亦伴隨而至,仍需新的監管框架應對潛在風險。因此,總體而言CAA以推動AI創新技術、提升航空產業效率與永續性為目標,透過了解技術前景、建立AI通用語言,並以航空領域之五大原則為監管框架之制定核心,建立靈活的AI監管體系,維持最高水準的安全保障。五大原則及案例分述如下: (1) 安全、安保與穩健性(Safety, Security and Robustness),例如:使用AI分析航空器感測器資料進行預測維護,以利提早發現問題。 (2) 透明與可解釋性(Transparency and Explainability),例如:清楚記錄AI系統如何提出空中交通路線建議。 (3) 可質疑性與矯正機制(Contestability and Redress),例如:制定一套明確的流程,以便航空公司查詢並了解AI生成的安全建議。 (4) 公平與偏見(Fairness and Bias),例如:確保自動化旅客篩查安檢系統公平對待所有旅客。 (5) 問責與治理(Accountability and Governance),例如:明確界定AI系統在機場運營中的監管角色與職責。 .Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em}
歐盟將推出「數位綠色證書」,促進疫情期間成員國內人員之安全入出境為防止新冠肺炎之傳播,欲入境歐盟的旅客被要求提供各式健康證明文件,然而在判斷該文件的真實性時,缺乏標準化的格式,導致旅客在入出境歐盟時產生各種問題,也容易產生欺詐或偽造文件的風險。為解決上述問題,歐盟委員會於2021年3月17日表示將推出「數位綠色證書」(Digital Green Certificate),證書分為三種,分別是:「已接種新冠肺炎疫苗證書」、「新冠肺炎檢測結果呈陰性證書」及「已從新冠肺炎痊癒證書」。透過綠色數位證書,希望能解決歐盟在疫情期間,各成員國人員入出境之安全問題。此證書預計將於所有歐盟成員國間通用,並對冰島、列支敦斯登、挪威和瑞士開放。 證書將免費以數位或紙本兩種形式提供,證書上之QR碼中將包含旅客必要個人資訊:姓名,出生日期,簽發日期,有關疫苗、檢測、恢復等等,並含有數位簽名,以確保證書之真實性及安全性。歐盟委員亦將成立一項計畫,使成員國開發特定的驗證軟體,以驗證某證書是否為歐盟所核發。 數位綠色證書不具強制性,將由成員國各自決定具體執行措施,且各成員國對持有數位綠色證書之旅客應公平待之,例如:成員國若接受某非數位綠色證書之疫苗接種證明而得免除某些檢疫或隔離,在相同條件下,成員國亦應接受數位綠色證書發出之疫苗接種證書而同樣免除該項檢疫或隔離。然而,歐盟目前僅接受下列四種被歐盟許可之疫苗:輝瑞(BioNTech Pfizer)、莫德納(Moderna)、AZ(AstraZeneca),及楊森製藥(Janssen Pharmaceutica),其他疫苗目前不被認可。此外,委員會並保證,持證人之個資並不會被成員國所留存。
金融穩定委員會報告指出金融領域採用AI之模型、資料品質與治理風險.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 金融穩定委員會(Financial Stability Board, FSB)於2024年11月14日發布《人工智慧對金融穩定的影響》報告,探討人工智慧(Artificial Intelligence, AI)在金融領域的應用進展及對全球金融穩定的影響,分析相關風險並提出建議。 報告指出AI具有提升效率、加強法規遵循、提供個人化金融產品及進階資料分析等益處,但同時可能加劇某些金融部門的脆弱性(Vulnerability),進而構成金融穩定風險。報告特別提出之脆弱性包括:「第三方依賴及服務供應商集中化」、「市場相關性」、「資安風險」,以及「模型風險、資料品質和治理」。 在模型風險、資料品質與治理中,廣泛應用AI可能導致模型風險上升,因某些模型難以驗證、監控及修正,且模型的複雜性與透明性不足將增加尋找具獨立性和專業知識的驗證者的挑戰。此外,在大型語言模型(Large Language Model, LLM),大規模非結構化資料的使用及訓練資料來源的不透明性,使資料品質評估更加困難。特別是在預訓練模型(Pre-trained Model)中,金融機構對眾多資料來源的評估方式不熟悉,進一步增加管理難度。 若金融機構未建立健全的治理架構以審查AI的使用及其資料來源,模型風險與資料品質問題將難以控制。金融機構有責任應對與AI相關的模型風險和資料品質挑戰,包含對模型進行驗證、持續監控、執行結果分析和評估資料品質的預期要求。 報告呼籲各國金融主管機關加強對AI發展的監測,評估現行金融政策框架是否充分,並增強監管能力。建議可定期或不定期調查AI應用情形,並透過報告及公開揭露制度獲取相關資訊。此外,主管機關可考慮利用監督科技(SupTech)及監管科技(RegTech)等AI驅動工具強化監管效能,以應對AI在金融領域帶來的挑戰與風險。