英國民用航空局(United Kingdom Civil Aviation Authority, CAA)於2024年12月3日發布「CAA對新興AI驅動自動化的回應」(The CAA's Response to Emerging AI-Enabled Automation)、「航空人工智慧與先進自動化監管策略」(Part A:Strategy for Regulating AI and Advanced Automation in Aerospace)以及「CAA 應用AI策略」(Part B: Strategy for Using AI in the CAA)等三份文件。首先,前者概述CAA對於AI應用於航空領域之總體立場,強調以確保安全、安保、消費者保護及環境永續等前提下,促進AI技術在相關航空領域之創新與應用;其次,「航空人工智慧與先進自動化監管策略」著重說明如何於航空領域監管AI技術之使用,以兼顧推動創新並維持安全性及穩健性;最後,「CAA 應用AI策略」則聚焦於CAA內部使用AI技術提升監管效率與決策能力的策略。
由於AI正迅速成為航空產業之重要技術,其應用範圍包含航空器、機場、地面基礎設施、空域、航太、消費者服務等,具有提高航空安全性、運作效率、環境永續性與消費者體驗之潛力。然而,相關技術風險與監管挑戰亦伴隨而至,仍需新的監管框架應對潛在風險。因此,總體而言CAA以推動AI創新技術、提升航空產業效率與永續性為目標,透過了解技術前景、建立AI通用語言,並以航空領域之五大原則為監管框架之制定核心,建立靈活的AI監管體系,維持最高水準的安全保障。五大原則及案例分述如下:
(1) 安全、安保與穩健性(Safety, Security and Robustness),例如:使用AI分析航空器感測器資料進行預測維護,以利提早發現問題。
(2) 透明與可解釋性(Transparency and Explainability),例如:清楚記錄AI系統如何提出空中交通路線建議。
(3) 可質疑性與矯正機制(Contestability and Redress),例如:制定一套明確的流程,以便航空公司查詢並了解AI生成的安全建議。
(4) 公平與偏見(Fairness and Bias),例如:確保自動化旅客篩查安檢系統公平對待所有旅客。
(5) 問責與治理(Accountability and Governance),例如:明確界定AI系統在機場運營中的監管角色與職責。
本文為「經濟部產業技術司科技專案成果」
歐盟執委會(European Commission, EC)於2022年2月18日向中國大陸提起諮商請求(request for consultation),此係世界貿易組織(World Trade Organization, WTO)爭端解決機制(Dispute Settlement Mechanism, DSM)之一環,並依照「爭端解決程序與規則瞭解書」(Understanding on Rules and Procedures Governing the Settlement of Disputes, DSU)第4.4條之規定,副知WTO的爭端解決機構(Dispute Settlement Body, DSB)。 EU於此諮商請求中指出,自2020年8月中國大陸最高人民法院就Huawei對 Conversant案此一涉及標準必要專利(Standards-Essential Patents, SEP)之訴訟核發禁訴令(Anti-Suit Injunction, ASI),並裁定違反者將被處以每日100萬人民幣之罰款後,中國大陸各法院即頻以此方式禁止外國專利權人於中國大陸以外之法院提起或續行專利訴訟(例如:Xiaomi對Interdigital案、ZTE對Conversant案、OPPO對Sharp案、Samsung對Ericsson案等)。中國大陸法院此等措施(measures)限制歐盟會員國公司行使專利權,違反「與貿易有關的智慧財產權協定」(The Agreement on Trade-Related Aspects of Intellectual Property Rights, TRIPS);關於此,EU先前已多次與中國大陸政府交涉,例如曾在2021年7月依據TRIPS第63.3條(會員國法律文件透明化要求),發函請求中國大陸公開專利相關判決之進一步資訊,然均未果。故EU此次提出與中國大陸政府諮商之請求。 EU此諮商請求是DSM的第一步;如雙方未能於中國大陸政府收到諮商請求之60日内解決爭端,依照DSU第4.7條,EU得要求DSB組成一專門小組,就此事進行審理,以認定中國大陸多數法院頻發ASI一事是否違反TRIPS第1.1條、第28.1條、第28.2條及第41.1條、第44.1條及第63.1條等。
知名線上遊戲公司Blizzard放棄推動網路論壇實名制度因製作「星海爭霸」(StarCraft)、魔獸世界(World of Warcraft)等名作而廣受玩家喜愛的線上遊戲公司Blizzard Entertainment,於2010年7月7月對外宣布,將針對旗下遊戲的官方網路論壇(Game Forum),推動實名制度(Real ID System),引發各界議論。 Blizzard對外表示遊戲論壇旨在提供一個供玩家交流遊戲資訊的管道,玩家亦得透過論壇提供Blizzard改進遊戲內容的建議或發表其他意見。然而,部分使用者卻肆意透過論壇散布人身攻擊言論,或從事其他不法行為。Blizzard希望透過推動論壇實名制度,約束人們透過論壇發表攻擊性言論的現象。然而,論壇實名制度訊息公布未久,Blizzard旋即收到眾多玩家的抗議信件。為平息反彈聲浪,Blizzard共同創辦人兼執行長Mike Morhaime於7月9日於官方論壇發表聲明,宣布Blizzard將不會實施論壇實名制,為整起事件劃下句點。 相較於Blizzard放棄推動遊戲論壇實名制度,中國大陸文化部於2010年6月22日發布「網路遊戲管理暫行辦法」,實施「網路遊戲實名制」,自8月1日起,中國大陸線上遊戲玩家即必須使用真名及有效的身分資料進行註冊,而遊戲公司亦必須妥善保存玩家身分資料。中國大陸新法同樣引發諸多爭辯,玩家紛紛表示擔心個人資料遭到外洩;而遊戲業者也憂慮此舉將導致玩家人口大量流失。
美國證券交易委員會成員發佈「數位資產之投資契約」指導文件鑒於「監管不確定性」係加密貨幣市場發展之一大阻礙,2018年間,美國證券交易委員會(United States Securities and Exchange Commission, SEC)成員威廉.希曼(William Hinman)表示,SEC打算發布指導方針,協助市場參與者確認「哪些數位資產之發售,會被認為是投資契約,進而構成證券」,須受到相關證券法規監管。據此,2019年4月3日,SEC公布指導文件:「數位資產之投資契約分析框架」(Framework for “Investment Contract” Analysis of Digital Assets)。惟須注意的是,該文件為內部成員之意見,不具正式法律效力,不得拘束SEC企業財務局或委員會本身,而僅屬一種指導。 美國法上對於「投資契約」的認定標準,為聯邦最高法院建立的Howey Test,即基於合理的獲利預期、且該獲利來自他人的創業或經營努力、而投資金錢於一共同事業者,成立投資契約,進而構成證券。因此,為確認「哪些數位資產之發售,會被認為是投資契約,進而構成證券」,該文件特別針對「Howey Test」中的「基於合理的獲利預期」、「該獲利來自他人的創業或經營努力」,提出具體判斷標準,並輔以「其他相關考量因素」,供市場參與者作一參考: (一)基於合理的獲利預期:例如「數位資產持有人可否分享企業收入或利潤,或從數位資產的增值獲得利潤」、「持有人現在或未來得否在次級市場交易」等具體標準; (二)該獲利來自他人的創業或經營努力:例如「營運上是否去中心化」、「數位資產持有人,是否期待發行人執行或管理必要工作」等具體標準; (三)其他相關考量因素:包含「數位資產之設計和執行,旨在滿足使用者需求,而非投機買賣」、「數位資產的價值,通常會保持不變或隨時間減損,理性持有人不會『以投資為目的』而長期持有」、「數位資產可作為真實貨幣之替代物」等等,文件中指出,只要這些其他相關考量因素越明顯,越不符合上開「基於合理的獲利預期且該獲利來自他人的創業或經營努力」。 文件中亦強調,SEC將參酌個案事實,綜合上開各項標準,為客觀之認定。
美國參議院於2022年4月提出《演算法問責法案》對演算法治理再次進行立法嘗試《演算法問責法案》(Algorithmic Accountability Act)於2022年4月由美國參議院提出,此法案係以2019年版本為基礎,對演算法(algorithm)之專業性與細節性事項建立更完善之規範。法案以提升自動化決策系統(automated decision systems, ADS)之透明度與公平性為目的,授權聯邦貿易委員會(Federal Trade Commission, FTC)制定法規,並要求其管轄範圍內之公司,須就對消費者生活產生重大影響之自動化決策系統進行影響評估,公司亦須將評估結果做成摘要報告。 《演算法問責法案》之規範主體包括:(1)公司連續三年平均營業額達5000萬美元,或股權價值超過2.5億美元者,並處理或控制之個人資料超過100萬人次;以及(2)公司過去三年內,財務規模至少為前者之十分之一,且部署演算法開發以供前者實施或使用者。ADS影響評估應檢視之內容包括: 1.對決策過程進行描述,比較分析其利益、需求與預期用途; 2.識別並描述與利害關係人之協商及其建議; 3.對隱私風險和加強措施,進行持續性測試與評估; 4.記錄方法、指標、合適資料集以及成功執行之條件; 5.對執行測試和部署條件,進行持續性測試與評估(含不同群體); 6.對代理商提供風險和實踐方式之支援與培訓; 7.評估限制使用自動化決策系統之必要性,並納入產品或其使用條款; 8.維護用於開發、測試、維護自動化決策系統之資料集和其他資訊之紀錄; 9.自透明度的角度評估消費者之權利; 10.以結構化方式識別可能的不利影響,並評估緩解策略; 11.描述開發、測試和部署過程之紀錄; 12.確定得以改進自動化決策系統之能力、工具、標準、資料集,或其他必要或有益的資源; 13.無法遵守上述任一項要求者,應附理由說明之; 14.執行並記錄其他FTC 認為合適的研究和評估。 當公司違反《演算法問責法案》及其相關法規有不正當或欺騙性行為或做法時,將被視為違反《聯邦貿易委員會法》(Federal Trade Commission Act)規定之不公平或欺騙性行為,FTC應依《聯邦貿易委員會法》之規定予以處罰。此法案就使用ADS之企業應進行之影響評估訂有基礎框架,或可作為我國演算法治理與人工智慧應用相關法制或政策措施之參酌對象,值得持續追蹤。