國際因應智慧聯網環境重要法制研析-歐盟新近個人資料修法與我國建議

刊登期別
第25卷,第12期,2013年12月
 

本文為「經濟部產業技術司科技專案成果」

※ 國際因應智慧聯網環境重要法制研析-歐盟新近個人資料修法與我國建議, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6430&no=0&tp=1 (最後瀏覽日:2026/02/26)
引註此篇文章
你可能還會想看
歐盟發布未成年網路安全指引

歐盟執委會於2025年7月發布《確保未成年網路高度隱私、安全和保障的措施指引》(Guidelines on measures to ensure a high level of privacy, safety and security for minors online,下稱指引),依據《數位服務法》(Digital Services Act)第28條未成年網路保護規定,未成年人可存取的網路平臺提供者應採取適當措施確保未成年人享有高度隱私及安全保障,且不應迫使數位平臺提供者為評估使用者是否為未成年人而處理額外的個人資料,前述指引目的即為協助數位平臺提供者遵守《數位服務法》第28條之規定。 數位平臺的條款及條件允許未成年人使用該服務,及其服務面向包含未成年人或主要由未成年人使用,或其提供者知曉部分接收者為未成年人,則該數位平臺可被視為提供未成年人存取,數位平臺提供者即應符合比例適當性、保護兒童權利、隱私安全保障設計、年齡適宜設計等一般性原則。指引要求數位平臺提供者需要以準確、可靠和穩定的方式確認使用者的年齡,常見的年齡確認方式有三種:自我聲明、年齡估測、年齡驗證,數位平臺提供者應評估所採方式之必要性及適當性,以最小侵害措施達成高度安全性,並以準確性、可靠性、韌性、低侵害、不歧視為原則。 但指引也引發對於其技術可行性及執法的疑慮,歐洲數位權利組織(European Digital Rights, EDRi)認為政府忽略數位平臺設計與商業模式的根本性問題,依賴年齡認證可能限制未成年人的權利,且對於誤判、規避風險、互通性、與會員國身分系統的整合等問題仍有諸多疑問。雖然指引非法規不具強制性,但歐盟執委會已將指引作為合規評估標準,使數位平臺提供者面臨實施成本及合規證明的壓力。面對日新月異的網路世界,該如何避免未成年人接觸不良網路內容成為許多國家關心的議題,值得持續追蹤相關動態作為我國未成年網路安全政策之參考。

世界衛生組織發布人工智慧於健康領域之監管考量因素文件,期能協助各國有效監管健康領域之人工智慧

世界衛生組織(World Health Organization, WHO)於2023年10月19日發布「人工智慧於健康領域之監管考量因素」(Regulatory considerations on artificial intelligence for health)文件,旨在協助各國有效監管健康領域之人工智慧,發揮其潛力同時最大限度地降低風險。本文件以下列六個領域概述健康人工智慧之監管考量因素: (1)文件化與透明度(Documentation and transparency) 開發者應預先規範(pre-specifying)以及明確記錄人工智慧系統(以下簡稱AI系統)之預期醫療目的與開發過程,如AI系統所欲解決之問題,以及資料集之選擇與利用、參考標準、參數、指標、於各開發階段與原始計畫之偏離及更新等事項,並建議以基於風險之方法(Risk-based approach),根據重要性之比例決定文件化之程度、以及AI系統之開發與確效紀錄之保持。 (2)風險管理與AI系統開發生命週期方法(Risk management and AI systems development lifecycle approaches) 開發者應在AI系統生命之所有階段,考慮整體產品生命週期方法(total product lifecycle approach),包括上市前開發管理、上市後監督與變更管理。此外,須考慮採用風險管理方法(risk management approach)來解決與AI系統相關之風險,如網路安全威脅與漏洞(vulnerabilities)、擬合不足(underfitting)、演算法偏差等。 (3)預期用途、分析及臨床確效(Intended use, and analytical and clinical validation) 開發者應考慮提供AI系統預期用途之透明化紀錄,將用於建構AI系統之訓練資料集組成(training dataset composition)之詳細資訊(包括大小、設定與族群、輸入與輸出資料及人口組成等)提供給使用者。此外,可考慮透過一獨立資料集(independent dataset)之外部分析確效(external analytical validation),展示訓練與測試資料以外之效能,並考慮將風險作為臨床確效之分級要求。最後,於AI系統之上市後監督與市場監督階段,可考慮進行一段期間密集之部署後監督(post-deployment monitoring)。 (4)資料品質(Data quality) 開發者應確認可用資料(available data)之品質,是否已足以支援AI系統之開發,且開發者應對AI系統進行嚴格之預發布評估(pre-release evaluations),以確保其不會放大訓練資料、演算法或系統設計其他元素中之偏差與錯誤等問題,且利害關係人還應考慮減輕與健康照護資料有關之品質問題與風險,並繼續努力創建資料生態系統,以促進優質資料來源之共享。 (5)隱私與資料保護(Privacy and data protection) 開發者於AI系統之設計與部署過程中,應考慮隱私與資料保護問題,並留意不同法規之適用範圍及差異,且於開發過程之早期,開發者即應充分瞭解適用之資料保護法規與隱私法規,並應確保開發過程符合或超過相關法規要求。 (6)參與及協作(Engagement and collaboration) 開發者於制定人工智慧創新與部署路線圖之期間,需考慮開發可近用且具有充足資訊之平台,以於適合與適當情況下促進利害關係人間之參與及協作;為加速人工智慧領域實務作法之進化,透過參與及協作來簡化人工智慧監管之監督流程即有必要。

高智發明(Intellectual Ventures)揭開其專利寶庫

  擁有專利但不生產商品,以購買專利與主張專利為主要商業模式的專利蟑螂,近來在美國引起眾多討論,2013年6月,美國白宮更正式發表聲明,不但要求行政機關打擊專利蟑螂,更建議立法機關作出相關修法。   高智發明(Intellectual Ventures,以下簡稱IV)自2001年創立以來,擁有約7萬個專利,其中4萬個屬於IV商業化專案,為主張專利之武器群。一向不承認自己屬於專利蟑螂的IV,2013年12月公開表列出3萬3千個用以主張專利侵權獲利之專利,包括無線技術、半導體技術、硬體、以及生物技術等高值專利;至於其他未公開的專利,IV則稱受限於第三方的保密義務無法公開。   IV宣稱此舉目的在於提供潛在專利被授權人或買受人一個購物清單;然而更為可能的,是面對同年11月底甫通過眾議院投票之創新法案帶來的壓力,所釋出之善意表示退讓。   前述公開清單目前在IV官網上公開提供下載與搜尋,對於企業或事務所,將來受到不知名公司控告專利侵權時,可以檢視這份清單,瞭解該案是否為IV所主導,但實際在訴訟策略上該如何運用學界與實務界尚未有明確的作法,值得繼續觀察。

日本於2018年7月25日發布關鍵基礎設施資訊安全對策第4次行動計畫修正版

  日本內閣網路安全中心(内閣サイバーセキュリティセンター)於2018年7月25日發布關鍵基礎設施資訊安全策略第4次行動計畫修正版。此次修正重點,係將「機場(空港)」新增為關鍵基礎設施領域,其目的在於確保機場安全、提供機場乘客與相關人員快速且正確的資訊、避免飛機行李的檢查與運送停止或延遲。   而確保「機場」資安的關鍵基礎設施事故報告與服務維持的指南,則為2018年4月1日發布之「確保機場資訊安全的安全指南第1版(空港分野における情報セキュリティ確保に係る安全ガイドライン第1版)」。   該確保機場資訊安全的安全指南,係參考日本於2015年5月發布之關鍵基礎設施資訊安全對策優先順位參考指南(重要インフラにおける情報セキュリティ対策の優先順位付けに係る手引書第1版)制定,以規劃(Plan)—執行(Do)—查核(Check)—行動(Action)的觀點建立管理與應變對策,將IT障礙分為故意(接收可疑的郵件、內部員工的故意行為、偽造使用者ID、DDos攻擊、非法取得資訊等)、偶發(使用者操作錯誤、使用者管理錯誤、外部受託方的管理錯誤、機器故障、執行可疑的檔案、閱覽可疑的網站、系統的脆弱性、受到其他關鍵基礎設施事故的波及)、環境(災害、疾病)等三大原因,並訂定日本主要的機場與機場大樓業者的責任範圍、適用的個資保護制度、IT安全評估與認證制度、資安稽核制度、資安管理政策及資安控制措施的建議事項。

TOP