美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。
由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。
為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。
英國資訊專員辦公室(Information Commissioner’s Office, ICO)於2018年10月24日公告針對臉書公司(Facebook Ireland Ltd. & Facebook Inc.)之劍橋分析(Cambridge Analytica)個資外洩事件,依據英國資料保護法(Data Protection Act 1998)第55A條之規範,裁罰臉書公司50萬英鎊之罰鍰。 自2018年3月劍橋分析違法取得與使用臉書個資事件爆發以來,估計約有8700萬筆臉書上的個人資料遭到違法使用,引起全球對於網路個資保護的重視。在遭到違法取得與使用的個資當中,也包含了歐盟以及英國臉書使用者的個資,因此英國ICO有權對此事件展開調查並對臉書公司進行裁罰。 根據英國ICO的調查,自2007年至2014年間,臉書公司對於其平台上的個資處理(processed)有所不當,違反資料保護法之資料保護原則(Data Protection Principle,DPP),包含未適當處理個人資料(DPP1),以及未採取足夠的技術與作為防止未經授權或違法使用個資(DPP7),致使劍橋分析得以透過臉書公司提供之API違法取用臉書使用者個資。 由於劍橋分析事件發生時,歐盟GDPR(General Data Protection Regulation)尚未正式上路,因此英國ICO依據事件發生時之法律,亦即基於歐盟資料保護指令(Directive 95/46/EC)所訂定之英國資料保護法,裁處臉書公司50萬英鎊的罰款;若依據基於GDPR之新版英國資料保護法(Data Protection Act 2018),臉書公司將可被裁處最高1700萬英鎊或年度全球營業額4%之罰款。
英國設立綠色財政委員會,檢討未來稅制綠化的方向英國為了達到稅制綠化的目標,特別在2007年底設置了一個集合產官學背景人員及消費者與環保組織代表組成的稅制檢討委員會-綠色財政委員會(Green Fiscal Commission, GFC)。GFC定位為獨立的組織,其任務是在未來的一年半期間,針對英國如要導入綠色稅與環境稅的稅制變革(green taxes and environmental tax reform, ETR),檢視完成其所涉及的相關議題,特別是導入困難之處何在,以期將過往對財貨“good“(例如勞動活動所產生的所得或收入)課稅的精神,規劃轉向為對環境有害的結果“bad“(如環境損害)予以課稅,GFC預計在2009年4月提出正式的報告,而報告探討的重點將會集中在以下三大部分: - 有關環境稅如何執行與操作之資訊與證據 - 有關社會大眾與利害關係人對於環境稅所持態度之資訊與證據 - 針對研究報告內容對外進行適當的溝通 英國欲進行綠色稅制改革,主要是基於歲收中和(revenue neutral)的考量,意指對財貨的租稅減免(tax cuts on ‘goods’)短缺,應透過對有害活動課稅所增加的稅收,予以平衡。英國政府希望可以藉由GFC的研究成果,成果進行綠色稅制改革,讓英國的稅收來源在2020年可以達到至少有20%是源自於綠色稅。
美國平等就業機會委員會發布「評估就業篩選程序中使用軟體、演算法及AI之不利影響」技術輔助文件美國平等就業機會委員會(Equal Employment Opportunity Commission, EEOC)於2023年5月18日發布「根據 1964 年《民權法》第七章評估就業篩選程序中使用軟體、演算法和AI之不利影響」(Assessing Adverse Impact in Software, Algorithms, and Artificial Intelligence Used in Employment Selection Procedures Under Title VII of the Civil Rights Act of 1964)之技術輔助文件(下簡稱「技術輔助文件」),以防止雇主使用自動化系統(automated systems)對求職者及員工做出歧視決定。 該技術輔助文件為EEOC於2021年推動「AI與演算法公平倡議」(Artificial Intelligence and Algorithmic Fairness Initiative)計畫的成果之一,旨在確保招募或其他就業決策軟體符合民權法要求,並根據EEOC 1978年公布之「受僱人篩選程序統一指引」(Uniform Guidelines on Employee Selection Procedures, UGESP),說明雇主將自動化系統納入就業決策所應注意事項。 當雇主對求職者與員工做出是否僱用、晉升、終止僱傭,或採取類似行動之決定,是透過演算法決策工具(algorithmic decision-making tool),對特定種族、膚色、宗教、性別、國籍或特定特徵組合(如亞洲女性),做出篩選並產生不利影響時,除非雇主能證明該決策與職位工作內容有關並符合業務需求,且無其他替代方案,否則此決策將違反《民權法》第七章規定。 針對如何評估不利影響,雇主得依UGESP「五分之四法則」(four-fifths rule),初步判斷演算法決策工具是否對某些族群產生顯著較低的篩選率。惟EEOC提醒五分之四法則推導出之篩選率差異較高時,仍有可能導致不利影響,雇主應依個案考量,使用實務常見的「統計顯著性」(statistical significance)等方法進一步判斷。 其次,當演算法決策工具係由外部供應商所開發,或由雇主授權管理人管理時,雇主不得以信賴供應商或管理人陳述為由規避《民權法》第七章,其仍應為供應商開發與管理人管理演算法決策工具所產生之歧視結果負責。 最後,EEOC鼓勵雇主應對演算法決策工具進行持續性自我評估,若發現該工具將產生不利影響,雇主得採取措施以減少不利影響或選擇不同工具,以避免違反《民權法》第七章。
歐盟普通法院駁回可口可樂曲線瓶商標註冊可口可樂公司於2011年向內部市場協調局(Office for Harmonisation in the Internal Market, OHIM)申請註冊流線型立體瓶身商標。經OHIM審議後,於2014年3月以本項商標缺乏顯著特徵不具商品區隔性為由,予以駁回申請。為此,可口可樂向歐盟普通法院(EU General Court)提出上訴。 惟法院於日前(2016年2月)做出說明,其判決結果認為立體瓶身並不具備與市場上其他可樂瓶區隔的具體特徵,根據共同體商標條例第7(1)(b)條「若商標缺乏顯著特徵則不允許註冊」。並質疑其所做的市場調查研究,無法證明該瓶身於市場上具有明顯的商品獨特性,不能讓消費者得以一眼看出是可口可樂產品,不符合同條例第7(3)條(足以使商品或服務之相關消費者認識為指示商品或服務來源,得與他人之商品或服務相區別者)排除7(1)(b)之適用條件,基於上述理由判決可口可樂公司敗訴。 透過此案件,一定程度呈現OHIM與歐盟法院在立體商標認定上相對審慎的態度。 在歐盟有關外觀設計與商標的聲請,係依照歐盟「共同體商標條例」(Council Regulation (EC) No. 207/2009)所規範。經申請通過之歐洲共體商標(CTM)註冊,得使產品或服務於全歐盟境內28個會員國享有排他性權利。而過往以販售之商品外觀或形狀申請註冊商標是具有難度的,必須係該外觀及形狀為增加其商品本身的價值或生產技術上所必要的結果,始得有商標註冊的可能。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」