國際推動綠色科技發展重要法制政策研析

刊登期別
第19卷,第3期,2007年03月
 

本文為「經濟部產業技術司科技專案成果」

※ 國際推動綠色科技發展重要法制政策研析, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2105&no=55&tp=1 (最後瀏覽日:2026/01/29)
引註此篇文章
你可能還會想看
奈米科技之前瞻性規劃-以美國推行綠色奈米為中心

新加坡個人資料保護委員會發布資料保護專員之職能與培訓準則

  新加坡個人資料保護委員會(Personal Data Protection Commission, PDPC)於2019年7月17日發布資料保護專員之職能與培訓準則。基於新加坡個人資料保護法(Personal Data Protection Act 2012, PDPA)明文規範非公務機關必須設立至少一名資料保護長(Data Protection Officer, DPO),負責個資保護政策之制定落實、風險評鑑及個資事故處理等工作。為了使資料保護專業人員增強能力並於企業組織有效履行其職責,新加坡個人資料保護委員會就此特別發布此準則,將資料保護專員分為三種工作職能,九項專業能力,進而規劃相關培訓課程。   此準則使企業組織能就工作職能聘僱合適之資料保護專員,亦使相關專業人員能掌握清晰之職業生涯,確定自我能力與培訓課程之落差,進而調整有效實施組織之個人資料保護管理政策與流程。其分為資料保護專員、資料保護長、區域資料保護長,依據工作職能與職責區分如下: 一、 資料保護專員 需監視與評估組織之個人資料保護管理政策與程序,並確保其遵循新加坡個人資料保護法。 識別個人資料之風險,並提出風險管控之措施。 提供組織個人資料保護政策之實施與實踐證據。 定期檢視審核,分析現況並矯正改善。 識別並規劃利害關係人之需求與利益。 二、 資料保護長 制定並審查個人資料管理計劃。 根據組織職能,視需求與流程,執行個人資料保護與風險評鑑,並解決相關業務風險。 制定培訓計劃,舉辦個人資料保護政策與流程之教育訓練。 確保組織內部個人資料保護之意識。 根據業務營運與個資法遵要求之落差評估,並建立合規性流程。 透過客戶對隱私與個人資料保護之要求,做為日後促進資料創新之實施。 三、 區域資料保護長 監督資料傳輸活動,並提供個人資料保護法之領導指南。 建立區域創新之資料保護策略。 減少區域內之個資事故。 於資料創新之運用提供戰略性,為組織創造業務價值。 評估新興趨勢與科技,如隱私增強技術、雲端運算、區塊鏈、網絡安全之風險與可行性。   針對上述工作職能與職責,結合所需之專業能力,包括個人資料管理、風險評鑑管理、個資事故緊急應變、利害關係人管理、個人資料稽核認證、個人資料治理、個人資料保護之倫理、資料共享與創新思維,規劃基礎個人資料保護相關課程與進階資料創新課程,使其個人資料保護制度更專業具有規模。目前我國對於資料保護專員並無相關立法規範,若未來修法新加坡個人資料保護委員會之做法亦值參酌。

WhatsApp因違反GDPR遭愛爾蘭資料保護委員會開罰2.25億歐元

  愛爾蘭資料保護委員會(Data Protection Commission,DPC)於今(2021)年9月宣告WhatsApp Ireland Limited(下稱WhatsApp)違反歐盟一般資料保護規則(General Data Protection Regulation,GDPR)並處以高額裁罰。   DPC自2018年12月起主動調查WhatsApp是否違反GDPR下的透明化義務,包括WhatsApp透過其軟體蒐集用戶與非用戶的個人資料時,是否有依GDPR第12條至第14條提供包括個資處理目的、法律依據等相關資訊,以及該資訊有無符合透明化原則等,其中又以WhatsApp是否提供「如何與其他關係企業(如Facebook)分享個資」之相關資訊為調查重點。   歷經長時間的調查,DPC作為本案領導監管機關(lead supervisory authority),於2020年12月依GDPR第60條提交裁決草案予其他相關監管機關(supervisory authorities concerned)審議。惟DPC與其他相關監管機關就該裁決草案無法達成共識,DPC復於今年6月依GDPR第65條啟動爭議解決程序,而歐洲資料委員會(European Data Protection Board)在同年7月對裁決草案中的疑義做出有拘束力之結論,要求DPC提高草案中擬定的罰鍰金額。   DPC最終在今年9月2日公布正式裁決,認定WhatsApp未依第12條至第14條提供資訊予「非軟體用戶」之資料主體,而「軟體用戶」的部分也僅有41%符合規範,嚴重違反GDPR第5(1)(a)條透明化原則。據此,以母公司Facebook全集團營業額作為裁罰基準,DPC對WhatsApp處2.25億歐元之罰鍰,為GDPR生效以來第二高的裁罰,並限期3個月改善。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

TOP