個人資料保護脈絡下的「綑綁式同意」

刊登期別
第24卷,第1期,2012年01月
 

※ 個人資料保護脈絡下的「綑綁式同意」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5645&no=64&tp=1 (最後瀏覽日:2026/04/17)
引註此篇文章
你可能還會想看
英國、新加坡領導全球發布供應鏈勒索軟體防護指引

在勒索軟體攻擊快速進化、供應鏈弱點成為主要攻擊途徑的背景下,英國於10月24日發布「全球性供應鏈勒索軟體防護指引」(Guidance for Organisations to Build Supply Chain Resilience Against Ransomware),該指引係由英國與新加坡共同領導的「反勒索軟體倡議」(Counter Ransomware Initiative, CRI)框架下推動,旨在協助各國企業降低勒索軟體事件的發生率與衝擊。該指引獲得CRI 67個成員國與國際組織的支持,標誌國際社群在供應鏈資安治理上的最新進展。 英國內政部(UK Home Office)指出,勒索軟體已成全球關鍵基礎設施與企業最主要的威脅之一。根據IBM發布之2025年資料外洩報告(Cost of a Data Breach Report 2025)估計,單一勒索攻擊的全球平均成本高達444萬美元。隨著攻擊手法演進,勒索攻擊已由單點入侵擴大為透過供應鏈滲透,攻擊者常以第三方服務供應商為跳板,一旦供應商遭入侵,即可能向上或向下影響整體產業鏈。英國2024年醫療檢驗服務供應商Synnovis遭勒索軟體攻擊事件,即造成數千次門診與手術延誤,凸顯供應鏈風險的實質衝擊。 該指引從供應鏈角度提出四大防護方向,英國政府與CRI強調,企業應在營運治理、採購流程與供應商管理中系統性導入相關措施,包括: 一、理解供應鏈風險的重要性 在高度互聯的數位環境中,供應鏈已成為勒索軟體攻擊的主要目標,企業應將供應鏈資安視為營運韌性與組織治理的核心要素。 二、辨識關鍵供應商與其資安成熟度 企業應建立完整的供應商清冊,評估其資安控管措施、過往資安事件紀錄、營運與備援能力、保險安排,以及其可存取之系統與資料範圍。 三、在採購與合約中落實資安要求 企業應要求供應商具備基本資安控制措施,包括多因素驗證、系統更新與修補管理、網路分段、安全設定及惡意程式防護等。 同時,合約中應納入資安事件通報義務、稽核權限、營運復原計畫及違規處置機制,並鼓勵供應商採用國際資安標準,例如Cyber Essentials與ISO/IEC27001。 四、持續檢討並更新防護措施 企業應與供應商共同檢討已發生事件及未實際造成損害但已暴露潛在風險之情形(Near Miss,即近乎事故),不論是否構成正式資安事件,均應納入檢討範圍;並定期進行資安演練、共享威脅情資,依攻擊趨勢滾動修正合約與內部規範。 指引同時指出,供應鏈常見弱點包括過度依賴少數供應商、缺乏供應鏈可視性,以及資安稽核與驗證機制不足。英國政府與CRI亦強調,雖然網路保險可作為風險管理工具之一,但無法取代基本且持續的資安防護措施。 該指引適用範圍涵蓋科技、資訊服務、能源、公用事業、媒體與電信等多個產業,顯示供應鏈資安已成全球營運安全的共同課題。英國與新加坡呼籲企業及早建立制度化的供應鏈資安治理架構,以強化全球數位經濟的整體韌性,降低勒索軟體攻擊帶來的系統性風險。

美國FDA計畫舉辦3D列印技術於醫療運用下之法制探討會議

  隨著3D印表機的價格日趨親民、3D列印設計檔案於網際網路交流越趨頻繁,以及預期3D列印技術在未來的應用會更加精進與複雜化,3D列印技術於醫療器材製造面所帶來的影響,已經逐漸引起美國食品藥物管理局(FDA)的關注。   在近期FDA Voice Blog posting中,FDA注意到使用3D列印所製造出的醫療器材已經使用於FDA所批准的臨床干預行為(FDA-cleared clinical interventions),並預料未來將會有更多3D列印醫療器材投入;同時,FDA科學及工程實驗辦公室(FDA’s Office of Science and Engineering Laboratories)也對於3D列印技術就醫療器材製造所帶來的影響進行調查,且CDRH功能表現與器材使用實驗室(CDRH’s Functional Performance and Device Use Laboratory)也正開發與採用電腦模組化方法來評估小規模設計變更於醫療器材使用安全性所帶來的影響。此外,固體力學實驗室(Laboratory of Solid Mechanics)也正著手研究3D列印素材於列印過程中對於醫療器材耐久性與堅固性所帶來的影響。   對於3D列印就醫療器材製造所帶來的法制面挑戰,在Focus noted in August 2013中,其論及的問題包含:藉由3D列印所製造的醫療器材,由於其未經由品質檢證是否不應將其視為是醫療器材?3D列印醫療器材是否需於FDA註冊登記?於網路分享的3D列印設計檔案,由於未事先做出醫療器材風險與效益分析,FDA是否應將其視為是未授權推廣等問題。   針對3D列印於醫療器材製造所帶來的影響,CDRH預計近期推出相關的管理指引,然FDA認為在該管理指引推出前,必須先行召開公聽會來援引公眾意見作為該管理指引的建議參考。而就該公聽會所討論的議題,主要依列印前、列印中與列印後區分三階段不同議題。列印前議題討論包含但不限於材料化學、物理特性、可回收性、部分重製性與過程有效性等;列印中議題討論包含但不限於列印過程特性、軟體使用、後製程序與額外加工等;列印後議題討論則包含但不限於清潔/多餘材料去除、消毒與生物相容性複雜度影響、最終裝置力學測定與檢證等議題。

歐盟個人資料侵害事故通知規則於2013年8月生效

  歐盟個人資料侵害事故通知規則(regulation on the notification of personal data breaches)於2013年8月生效,其目的係為統一歐盟各會員國有關個人資料侵害事故通知之規定,以使當事人可以獲得一致性的待遇,同時,業者於歐盟境內亦可採取一致性的作法。此規則將適用於所有供公眾使用之電子通訊服務(publicly available electronic communications services)提供者,例如網路服務提供者(Internet service providers)及電信業者,同時,其敍明前述業者所持有之個人資料如有發生洩露或其他侵害時,應通知當事人與通報主管機關之技術性程序(technical measures)。   依個人資料侵害事故通知規則之規定,業者於知悉個人資料侵害事故之24小時內通報主管機關,通報內容包括:事故發生之日期與時間、受侵害之個人資料之種類與內容、受影響之當事人人數、以及為降低對當事人可能帶的負面影響擬採取或己採取之組織上與技術上之措施。   個人資料侵害事故可能對當事人之個人資料或隱私產生負面影響,業者必須立即通知當事人有關個人資料侵害事故之情事,例如遭侵害之個人資料涉及金融資訊、個人資料遭侵害會造成當事人名譽受損或業者知悉該個人資料已被未經授權之第三人擁有時。若業者能證明其對被侵害之個人資料已滿足主管機關所要求的技術保護措施,使未經授權而取得資料之人無法探知該遭侵害之資料內容時,即無須通知當事人有關個人資料遭侵害之情事。

美國加州「Asilomar人工智慧原則決議」

  美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下: (1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。 (2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。 (3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。 (4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。 (5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。 (6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。 (7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。 (8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。 (9)人工智慧所產生之責任,應由設計者以及建造者負擔。 (10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。 (11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。 (12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。 (13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。 (14)人工智慧之技術應盡力滿足越多人之利益。 (15)人工智慧之經濟利益,應為整體人類所合理共享。 (16)人類對於人工智慧之內在目標應享有最終設定權限。 (17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。 (18)人工智慧所產生之自動化武器之軍備競賽應被禁止。 (19)政策上對於人工智慧外來之發展程度,不應預設立場。 (20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。 (21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。 (22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。 (23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。

TOP