歐盟資料保護委員會(European Data Protection Board, EDPB)於2023年12月13日回覆歐盟執行委員會(European Commission, EC)有關Cookie協議原則草案(Cookie Draft Pledge Principles)之諮詢。該草案旨在處理「Cookie疲勞」(Cookie fatigue)所造成的隱私權保護不周全之處。
在電子通訊隱私指令(ePrivacy Directive)以及GDPR規範下,由於現行同意機制複雜,造成用戶對Cookie感到疲勞,進而放棄主張隱私偏好。
為了避免「Cookie疲勞」,EDPB提出以下原則和建議,大致可以分為三點:
一、簡化Cookie不必要的資訊
1.基本運作所需之Cookie(essential cookies)無需用戶同意,故不必呈現於同意選項,以減少用戶需閱讀和理解的資訊。
2.關於接受或拒絕Cookie追蹤的後果,應以簡潔、清楚、易於選擇的方式呈現。
3.一旦用戶拒絕Cookie追蹤,一年內不得再次要求同意。
二、確保資訊透明
1.若網站或應用程式的內容涉及廣告時,應在用戶首次訪問時進行說明。
2.不僅是同意追蹤的Cookie,用於選擇廣告模式的Cookie,仍需單獨同意。
三、維持有效同意
1.應同時顯示「接受」和「拒絕」按鈕,提供用戶拒絕Cookie追蹤的選項。
2.在提供Cookie追蹤選項時,除了接受全部的廣告追蹤或付費服務外,應提供用戶另一種較不侵犯隱私的廣告形式。
3.鼓勵應用程式提前記錄用戶的Cookie偏好,但強調在用戶表達同意時必須謹慎處理,預先勾選的「同意」不構成有效同意。
EC表示,該草案目的在於簡化用戶對Cookie和個人化廣告選擇的管理,雖然為了避免Cookie疲勞而簡化資訊,仍應確保用戶對於同意Cookie追蹤,是自願、具體、知情且明確的同意。將於後續參考EDPB之建議,並與利害關係人進行討論後,制定相關法規。
加拿大政府由創新、科學和工業部長(Minister of Innovation, Science and Industry)代表,於2022年6月16日提交C-27號草案,內容包括聯邦的私部門隱私權制度更新,以及新訂的《人工智慧資料法案》(Artificial Intelligence and Data Act, 下稱AIDA)。如獲通過,AIDA將是加拿大第一部規範人工智慧系統使用的法規,其內容環繞「在加拿大制定符合國家及國際標準的人工智慧設計、開發與應用要求」及「禁止某些可能對個人或其利益造成嚴重損害的人工智慧操作行為」兩大目的。雖然AIDA的一般性規則相當簡單易懂,但唯有在正式發布這部包含絕大多數應用狀況的法規後,才能實際了解其所造成的影響。 AIDA為人工智慧監管所設立的框架包含以下六項: (1)方法 以類似於歐盟《人工智慧法案》採用的方式,建立適用於人工智慧系統具「高影響力」的應用方式的規範,關注具有較高損害與偏見風險的領域。 (2)適用範圍 AIDA將適用於在國際與省際貿易及商業行動中,設計、發展或提供人工智慧系統使用管道的私部門組織。「人工智慧系統」的定義則涵蓋任何「透過基因演算法、神經網路、機器學習或其他技術,自動或半自動處理與人類活動相關的資料,以產生結果、做出決策、建議或預測」的技術性系統。 (3)一般性義務 I 評估及緩和風險的措施 負責人工智慧系統的人員應評估它是否是一個「高影響系統」(將在後續法規中詳細定義),並制定措施以辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果。 II 監控 對該「高影響系統」負責的人員應建立準則,以監控風險緩解措施的遵守情況。 III 透明度 提供使用管道或管理「高影響系統」運作的人員應在公開網站上,以清晰的英語揭露 i 系統如何或打算如何使用。 ii 系統所生成果的類型及它所做出的決策、建議與預測。 iii 為辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果,而制定的緩解措施。 iv 法規明定應揭露的其他訊息。 IV 記錄保存 執行受規範活動的人員應遵守紀錄保存要求。 V 通知 若使用該系統將導致或可能導致重大傷害,「高影響系統」的負責人應通知部門首長。 VI 匿名資料的使用 從事法案所規定的活動及在活動過程中使用或提供匿名資料的人員,必須依據規範制定關於(a)資料被匿名化處理的方式(b)被匿名化資料的使用與管理,兩方面的措施。 (4)部長命令 部門首長可以透過命令要求(a)製作紀錄(b)從事審計或聘請一位獨立的審計師執行(c)成立一個專責執行審計程序的組織(d)成立一個在有理由相信「高影響系統」之使用可能造成急迫重大傷害風險時負責進行終止或准許的組織。 (5)行政管理 AIDA為部門首長制定一項,可指定其所管轄部門中一名高級官員為「人工智慧與資料專員」的權利,其職責在協助部門首長管理與執行AIDA。 (6)罰則 違反AIDA規範之罰則主要為按公司、個人之收入衡量的罰款。特定嚴重狀況如以非法方式取得人工智慧訓練用資料、明知或故意欺騙大眾造成嚴重或心理傷害或財產上重大損失,亦可能判處刑事監禁。
歐盟人工智慧辦公室發布「通用人工智慧實踐守則」草案,更進一步闡釋《人工智慧法》之監管規範.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 歐盟人工智慧辦公室(European AI Office)於2024 年 11 月 14 日發布「通用人工智慧實踐守則」(General-Purpose AI Code of Practice)草案,針對《人工智慧法》(Artificial Intelligence Act, AIA)當中有關通用人工智慧(General Purpose Artificial Intelligence, GPAI)之部分,更進一步闡釋相關規範。 本實踐守則草案主要分為4大部分,分別簡介如下: (1)緒論:描述本守則之4個基本目標,包含協助GPAI模型提供者履行義務、促進理解人工智慧價值鏈(value chain)、妥適保障智慧財產權、有效評估且緩解系統性風險(systemic risks)。 (2)GPAI模型提供者:有鑒於GPAI模型對於下游系統而言相當重要,此部分針對模型提供者訂定具體責任。不僅要求其提供訓練資料、模型架構、測試程序等說明文件,亦要求制定政策以規範模型用途防止濫用。另於智慧財產權方面,則要求GPAI模型提供者遵守「歐盟數位單一市場著作權指令」(Directive 2019/790/EC)之規定。 (3)系統性風險分類法(taxonomy):此部分定義GPAI模型之多種風險類別,諸如可能造成攻擊之資訊安全風險、影響民主之虛假資訊、特定族群之歧視、超出預期應用範圍之失控情形。 (4)高風險GPAI模型提供者:為防範系統性風險之危害,針對高風險GPAI模型提供者,本守則對其設立更高標準之義務。例如要求其於GPAI模型完整生命週期內持續評估風險並設計緩解措施。 本守則發布之次週,近千名利害關係人、歐盟成員國代表、國際觀察員即展開討論,透過參考此等回饋意見,預計將於2025年5月確定最終版本。
日本空中工業革命新進展:無人機變身空中郵差日本政府曾於2017年6月9日閣議公布之《未來投資戰略2017》(未来投資戦略2017),以及5月19日「小型無人飛行載具相關部會連絡會議」(小型無人機に関する関係府省庁連絡会議)公布之《空中工業革命時程表》(空の産業革命に向けたロートマッフ)中,提出「2018年運用於山間地區運送貨物、2020年可正式在都市內安全運送貨物」之目標。故國土交通省與經濟產業省於同年10月4日共同設立「無人飛行載具於目視範圍外及第三者上空等飛行檢討會」(無人航空機の目視外及び第三者上空等での飛行に関する検討会),並於2018年9月18日公布《無人飛行載具運送貨物自主指引》(無人航空機による荷物配送を行う際の自主ガイドライン,以下稱「本指引」)。本指引目的係制定安全運輸貨物所應遵守事項、提高社會對無人機運送貨物之信賴,以求提升運輸效率、節省人力成本。適用對象為非屬航空法第132條規定須申請許可之空域,但於目視範圍外飛行並運送貨物之無人機。 本指引公布後,國土交通省與環境省於相關提案中選出5個人口非密集區,以進行之無人機運輸貨物(ドローン物流)實驗。首先,在2018年10月22日長野縣白馬村,無人機自海拔1500公尺處運送最重達8公斤的食品至海拔1850公尺處的山莊,單程耗時6分鐘,共往返3次,皆無發生明顯失誤。日本郵政之提案則在同年11月7日,從福島縣小高郵局成功運抵位於南方約9公里處的浪江郵局,耗時16分鐘。本次實驗係首次成功於目視範圍外運輸物品,實驗途中均未設置監看人員,僅以電腦掌握兩地衛星定位資訊,並監看無人機上搭載相機傳回的畫面。日本郵政計畫未來1年內,每個月將有6天以無人機運送2公斤內的傳單等物品。國土交通省與環境省計畫於年底前完成另外3個地區的實驗,並統整結果驗證是否能解決山間等人口非密集區,因貨物乘載率低而運輸效率低落,以及降低排碳量等課題。
美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。 依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。 依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。 此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。 最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。