澳洲於2018年2月22日施行個人資料洩漏計畫(Notifiable Data Breaches scheme, NDB scheme),該計畫源於澳洲早在1988年所定「澳洲隱私原則」(Australian Privacy Principles, APPs)之規定。對象包括部分政府機構、年營業額超過300萬澳幣之企業以及私營醫療機構。
根據該計畫,受APPs約束的機構於發生個資洩露事件時,必須通知當事人以及可能會造成的相關損害,另外也必須通知澳洲私隱辦公室(Office of the Australian Information Commissioner, OAIC)相關資訊。
NBD計畫主要內容如下:
一 、規範對象:
二 、個資洩露之認定:
三 、OAIC所扮演之角色:
四 、於下列情形可免通知義務:
五 、通知內容:
惟NBD 計畫對於個人資料的安全性沒有新的要求,主要是對APPs的補充,針對持有個人資料的機構採取合理措施,保護個人資料免遭濫用、干擾或損失, OAIC目前也正在規劃一系列有關個資洩漏事件指導方針及導入說明手冊。
歐盟執委會於2020年2月19日發布「人工智慧白皮書」(White Paper on Artificial Intelligence: a European approach to excellence and trust),以打造卓越且可信賴的人工智慧為目標。歐盟認為在推動數位轉型過程中的一切努力,均不應脫離歐盟以人為本的最高價值,包含:開放(open)、公平(fair)、多元(diverse)、民主(democratic)與信任(confident),因此在人工智慧的發展上,除了追求技術的持續精進與卓越外,打造可信賴的人工智慧亦是歐盟所重視的價值。 歐盟執委會於人工智慧白皮書中分別就如何追求「卓越」與「可信賴」兩大目標,提出具體的措施與建議。在促進人工智慧卓越方面,執委會建議的措施包含:建立人工智慧與機器人領域的公私協力;強化人工智慧研究中心的發展與聯繫;每個成員國內應至少有一個以人工智慧為主題的數位創新中心;歐盟執委會與歐洲投資基金(European Investment Fund)將率先在2020年第1季為人工智慧開發與使用提供1億歐元融資;運用人工智慧提高政府採購流程效率;支持政府採購人工智慧系統等。上述各項措施將與歐盟「展望歐洲」(Horizon Europe)科研計畫密切結合。 而在建立對人工智慧的信賴方面,執委會建議的措施則包含:建立有效控制人工智慧創新風險但不箝制創新的法規;具高風險的人工智慧系統應透明化、可追溯且可控制;政府對人工智慧系統的監管程度應不低於對醫美產品、汽車或玩具;應確保所使用的資料不帶有偏見;廣泛探討遠端生物辨識技術的合理運用等。歐盟執委會將持續徵集對人工智慧白皮書的公眾意見,並據以在2020年底前提出成員國協力計畫(Coordinated Plan)之建議。
澳洲數位轉型局12月發布《政府負責任使用人工智慧政策2.0》,以強化公部門之AI風險管理2025年12月初,澳洲數位轉型局(Digital Transformation Agency,下稱DTA)發布《政府負責任使用AI政策2.0》(Policy for the responsible use of AI in Government 2.0),旨在進一步強化公部門在AI的透明度、問責性與風險管理能力,於2025年12月15日生效,取代 2024年9月實施的過渡版本。 一、適用範圍 政策適用於所有非企業型聯邦實體(Non-corporate Commonwealth entities),即不具獨立法人地位、直接隸屬於政府的機關或單位。企業型聯邦實體則被鼓勵自願遵循。政策定位為「補充與強化既有法制」,非另訂獨立規範,因此在實務中須與公務員行為準則、資安規範及資料治理制度併行適用。 二、政策重點 在政策施行的12個月內,適用機關須完成以下要求,以確保落實AI治理架構: (一)制度建置 1. AI 透明度聲明:機關須在政策生效後 6 個月內發布「AI 透明度聲明」,公開 AI 使用方法與現況。聲明中須說明機關風險管理流程、AI 事件通報機制及內外部申訴管道,確保使用過程透明、可追蹤。 2. 人員指定與培訓: 機關須指定制度問責人員(Accountable officials)以及AI使用案例承辦人(Accountable use case owners)。 所有員工皆須進行關於負責任使用AI的培訓,機關並依員工職務權責提供個別員工進階訓練。 3. 建立內部AI使用案例註冊清單(Internal AI use case register),以供後續追蹤 該清單至少包含: (1)使用案例負責人(Accountable use case owners):記錄並持續更新範疇內 AI 使用案例的指定負責人。 (2)風險等級(Risk rating):AI使用案例的風險等級資訊。 (3)異動紀錄:當使用案例的風險評級或負責人變更時,須即時更新清單。 (4)自定義欄位:各機關可根據其需求,自行增加欄位。 (二)AI 使用案例範疇判斷 機關須在評估所有新案例,依以下特徵判斷AI應用是否屬於「範疇內(In-scope)」的應用: 1.對個人、社群、組織或環境造成重大損害。 2.實質影響行政處分或行政決策。 3.在無人工審查的情況下,大眾將直接與AI互動或受其影響。 4.涉及個人、敏感資料等資訊。 (三)進階風險評估 依AI影響評估工具(Impact Assessment Tool)針對公眾近用權;不公平歧視;加重刻板印象;損害人、組織或環境;隱私顧慮;資料敏感之安全顧慮;系統建置之安全顧慮;公眾信任等8類別,加以判斷範疇內AI應用,若有任一類別被評為「高風險」,即判定為「高風險」;若所有類別中最高的分數為「中風險」,則整體判定為中風險。 判定為中、高風險之AI應用,均需進行全面審核。中風險須列出所有中風險項目及其控管措施,主要為內部控管;而高風險則要求向DTA報告,且每年至少進行一次全面審核與風險再評估。 澳洲欲透過發布AI透明度聲明、更新AI使用案例註冊清單、強制執行AI應用之風險評估及人員培訓,確保公部門對AI的負責任使用與問責。而我國企業可參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,落實AI資料管理與追蹤。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
美國航空公司控告Google銷售不當的關鍵字廣告美國航空公司(American Airlines, 以下簡稱AA),世界最大的航空公司,控告Google私自銷售包含AA的名稱或註冊商標之搜尋關鍵字 AA日前向德州北區地方法院提出訴訟,控告Google將關於AA的名稱或註冊商標的搜尋關鍵字,如「American Airlines」或「AA.com」,銷售給其它公司作為廣告用途。 AA表示,Google甚至將該等搜尋關鍵字銷售給AA的競爭者。換言之,當使用者於Google搜尋引擎查詢關於前述之AA名稱或註冊商標之關鍵字時,Google除了提供相關連結之外,也可能會在「贊助者連結」中提供AA競爭者的連結,而引導使用者前往其競爭者的網頁。 AA於聲明中指出:「我們希望能減輕此類行為所造成的損害」。截至目前為止,AA並未透露求償金額等細節。 Google則在其聲明中指出:「我們相信本公司的商標政策已經在商標所有人的權益以及消費者的選擇之間取得適當的平衡,並且我們的立場在相關案例的判決中已經被證實是合法的」。
中國民航局公布《關於推動「人工智慧+民航」高品質發展的實施意見》,以加速推動AI於民用航空領域的創新與產業發展中國民用航空局於2025年11月19日公布《關於推動「人工智慧+民航」高品質發展的實施意見》(关于推动“人工智能+民航”高质量发展的实施意见),旨在貫徹《國務院關於深入實施「人工智慧+」行動的意見》(国务院关于深入实施 “人工智能+”行动的意见)及《關於「人工智慧+交通運輸」的實施意見》(关于 “人工智能+交通运输”的实施意见)的要求,以加速推動AI於民用航空領域的創新與產業發展。 本文件說明,中國政府將於安全、物流、監管、建設等領域,持續推動AI驅動的創新產業發展,深化產業與AI的結合。2027年將首先實現AI於民航安全、物流之發展,預計屆時民航領域的高品質資料、基礎設施平台、產業模型演算法等AI核心要素已見成效,形成具指標性的前瞻示範案例以及具有競爭力的智慧產品與應用;而預計至2030年,民航AI治理體系與安全保障體系已逐步建立,成為民航領域發展的基礎。 本文件針對AI具發展優勢之民航領域,提出其於安全、運行、監管等層面的應用場景,例如飛機故障預測性維護、入侵物辨識、鳥情監控、航班編制、航程調度、智慧旅客服務、自動化倉儲管理、執法輔助、風險控管機制等多元應用。此外,為推動民用航空AI算力基礎設施的建設,也鼓勵建造算力與資料中心,期能建立標準化、資料共享的可信資料基礎建設。 而為指導民航單位落實AI應用,本文件亦於附件中編入《民航人工智慧應用場景參考指引》(民航人工智能应用场景参考指引),該指引中介紹發展程度較高的42個航空領域AI應用場景,說明各應用場景的基本應用概念及技術發展成熟度,以作為各單位根據自身條件制定AI導入應用策略的參考依據。