歐盟提出「一般資料保護規章」(草案)並審議,以因應未來聯網環境趨勢

  為因應近來智慧聯網(IoT)、巨量資料及雲端運算發展趨勢,為強化線上隱私權利及促進歐盟數位經濟的發展,歐盟執委會於2012年1月25日對於資料保護指令提出新的規章草案:「保護個人有關個人資料處理及自由流通規章(一般資料保護規章)」(Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL on the protection of individuals with regard to the processing of personal data and on the free movement of such data (General Data Protection Regulation)),以取代並廢除(repealed)原有「個人資料保護指令」規範,並修改(amend)「隱私與電子通訊指令」,預計在2013年6月進入歐洲議會、理事會及執委會的三方協商,若順利將在2014年通過,並在2016年生效。

  「一般資料保護規章」(草案)中對於聯網環境及智慧化設備運行之因應,重要規範內容有(1)追蹤(tracking)與特徵分析(profiling):訂定第20條「特徵分析措施」(Measures based on profiling)規範條文,保障每個當事人皆有主張不被採取特徵分析措施(如個人傾向、工作表現、財務狀況、位址、健康、個人喜好、可信度)而致產生法律效果或顯著影響該個人的權利(2)被遺忘及刪除權(right to be forgotten and to erasure):訂定第17條,創設新的權利「被遺忘及刪除權」,用以幫助民眾處理線上資料,當其不希望自己的資料被利用且無合法理由保留時,資料將被刪除(3)資料可攜權利(the right to data portability):訂定第18條,當資料處理是以電子化方法,且使用結構性、通用的格式時,資料當事人有權利可以取得該結構性、通用格式下的個人資料,更容易自不同服務提供者間移轉個人資料。(4)當事人的同意要件:第4條第8款明定,不論何種資料處理情況時所需的同意,增列必須是明確(explicitly)同意之要件(5)「設計階段納入隱私考量」(privacy by design)、「預設隱私設定」(privacy by default):訂定第30條,要求資料控制者及處理者應實行適當的技術性、組織性措施,並考量科技發展水準,制定特定領域及特定資料處理情況的標準及條件,並且資料保護將會從產品及服務最初發展、設計時就考量隱私問題應對「設計階段納入隱私考量」及「預設隱私設定」提出標準及條件。

  歐盟此次對於「一般資料保護規章」(草案)的修法進程,以及世界各重要國家的立場及反應態度,均值得後續密切觀察研析。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 歐盟提出「一般資料保護規章」(草案)並審議,以因應未來聯網環境趨勢, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw//article-detail.aspx?d=6368&no=64&tp=1 (最後瀏覽日:2026/04/11)
引註此篇文章
你可能還會想看
英國發布出口軍用與軍民兩用技術定義與範圍之指南

  英國國際貿易部(Department for International Trade, DIT)於2021年3月22日發布《出口軍用與軍民兩用技術定義與範圍之指南》(Exporting military or dual-use technology Guidance: definitions and scope),以協助使用者定義「技術」與「轉讓軍用或軍民兩用技術的法規範圍」。指南中說明,出口管制目的旨在防止出口技術及技轉可能導致開發或製造武器而危及國家安全,而非禁止合法貿易或知識傳播。任何管制技術的永久或暫時性出口或技轉(Technology transfer)均應取得出口許可證,包括展演、海外招標或投標、履約等行為。   首先在適用主體上,指南說明適用出口管制規範,為所有在英國國境內之人(不論國籍)和組織以及特定情況下的海外英國人,向外國人或海外地區為出口、技轉、或是使海外人員取得受管制技術之情況。   指南中所謂技術者,包含《英國戰略出口管制清單》(UK Strategic Export Control Lists)、《2008年出口管制命令》(The Export Control Order 2008)與歐盟理事會第428/2009號規則(Council Regulation No 428/2009)之內容。有些管制技術會以不同形式呈現,例如藍圖、計畫、模型、程式、指導手冊等,其呈現的形式亦屬管制範圍。此外,部分技術若與大規模破壞武器(Weapon of Mass Destruction, WMD)、武器貿易禁令(arms embargoes)以及未經授權的軍事出口有關者,亦可能屬於受管制之技術,因此定義上十分廣泛。因應科技和網路發展,出口和技轉亦會以不同方式呈現。指南中說明,技轉包含(1)以有形的物理文件或存載於媒體的方式技轉,例如隨身碟、硬碟、筆電或平板等;(2)以電子式等無形形式技轉,例如電子郵件傳送等。無論受管制技術之技轉是否加密,均需取得出口許可證。   針對前述定義之出口和技轉方式,指南中也例示技術移轉或出口的不同態樣,例如(1)電話會議及視訊會議;(2)電子郵件;(3)筆電、手機等可記憶之設備;(4)跨國公司內部傳送;(5)雲端儲存;(6)在國外下載使用管制技術;(7)員工在海外使用/存取內部網路;(8)第三方在海外使用/存取公司內部網路或雲端服務;(9)IT系統維護與測試。以上方式均應個別判斷是否需要申請出口許可證。此外,技術所有者應主導出口管制規範之法遵,故應了解客戶、供應商、分包商等第三方服務業者之詳細資訊,且於契約中明訂各方的出口管制責任及相關條款,並隨時確認接受者或第三方是否得自不同管道取得管制技術及相關訊息,並於可能出口和或技轉管制技術時,立即申請出口許可證。

澳洲國家交通委員會發布管制政府近用C-ITS和自駕車資料政策文件,提出政府近用自駕車蒐集資料規範原則

  2019年8月12日澳洲國家交通委員會(NTC)提出「管制政府近用C-ITS和自駕車資料(Regulating government access to C-ITS and automated vehicle data)」政策文件,探討政府使用C-ITS與自駕車資料(以下簡稱資料)所可能產生的隱私議題,並提出法律規範與標準設計原則應如下: 應平衡政府近用資料與隱私保護措施,以合理限制蒐集、使用及揭露資料。 應與現行以及新興國內外隱私與資料近用框架一致,並應進行告知。 應將資料近用權利與隱私保障納入立法中。 應以包容性與科技中立用語定義資料。 應使政府管理資料措施與現行個資保護目的協調一致。 應具體指明資料涵蓋內容、使用目的與限制使用對象,並減少資料被執法單位或經法院授權取得之阻礙。 應使用易懂之語言知會使用者關於政府蒐集、使用與揭露以及資料的重要性。 認知到告知同意是重要的,但同時應提供政府於取得同意不可行時,平衡個人隱私期待之各種可能途徑。 認知到不可逆的去識別化資料在許多情況下的困難度。 支持資料安全保護。 定期檢查資料隱私保護狀態與措施。   以上這些原則將會引導NTC發展自駕車資料規範與國家智慧運輸系統框架,NTC並將於2019年內提出更進一步規劃相關工作之範疇與時間點。

歐盟「人工智慧法」達成政治協議,逐步建立AI準則

歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).

IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability)   由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment)   人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability)   人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。   該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

TOP