網路中立管制在美國與歐盟的新發展

刊登期別
第22卷,第7期,2010年07月
 

※ 網路中立管制在美國與歐盟的新發展, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5494&no=0&tp=1 (最後瀏覽日:2025/11/21)
引註此篇文章
你可能還會想看
FDA公布修訂行動醫療APP指導原則

  美國於2015年2月5日公布修訂之行動醫療應用程式指導原則(Mobile Medical Applications, Guidance for Industry and Food and Drug Administration Staff),取代原先在2013年9月公布之版本。本次的修訂主要是將美國2015年2月9日公布之醫療設備資訊系統、醫療影像儲存設備、及醫療影像傳輸設備指導原則(Medical Device Data Systems, Medical Image Storage Devices, and Medical Image Communications Devices, Guidance for Industry and Food and Drug Administration Staff)規範納入其中。   2015年2月9日公布之醫療設備資訊系統、醫療影像儲存設備及醫療影像傳輸設備指導原則,擬降低FDA的管理程度,採用風險性評估方式,針對部分醫療設備資訊系統、醫療影像儲存設備及醫療影像傳輸設備等三種屬於第一級低風險之醫療器材,得不受ㄧ般管制,例如不需要登記、上市後報告及品質系統法規遵守等。原先,美國於2011年先將醫療設備資訊系統從第三級之高風險醫療器材,降低為第一級低風險之醫療器材,但經過長期間的使用經驗後,FDA認為,此等醫療器材設備在健康照護中十分重要,但相對於其他醫療器材,風險則較低,因此,將放寬程序。   行動健康應用程式亦可能歸類為上述之醫療器材,因此,為與上述的指導原則相符合,對於行動健康應用程式的審查亦作部分放寬。例如,當應用程式與資療資訊系統結合,而成為應受規範之醫療器材時,原先之規定為應進入醫療器材之規範程序,但新修訂之指導原則,則再放寬。僅將涉及積極的病人監測或醫療器材數據分析時,才需要回歸醫療器材之審查方式,其他醫療資訊系統若僅為儲存、傳輸等功能,而非主要提供診斷、治療等功能時,則可以不受醫療器材之規範限制,因風險程度較低,因此改由FDA視個案審查即可。為鼓勵相關產業的發展,FDA將風險性低之醫裁降低管理程度,其後續發展值得觀察。

美國《雲端法》(CLOUD Act)

  美國《雲端法》(CLOUD Act),全名為《釐清境外合法利用資料法》(Clarifying Lawful Overseas Use of Data Act),於2018年3月23日頒布生效,該法更新《1986年儲存通訊紀錄法》(Stored Communications Act of 1986),並釐清海外資料合法取得:無論資料儲存地在美國境內或境外,美國執法機構均可合法請求通訊紀錄的保存或揭露。   《雲端法》有兩大重點:首先,《雲端法》授權美國與其他值得信賴的國家進行雙邊協議,以取得重大犯罪之電子證據。其他國家必須擁有相應的完善法規、隱私、公民權利之保護,方具備與美國簽署雙邊協議的資格。透過雙邊協議,締約雙方可憑對方國家的搜索票等法律文件,直接對通訊服務提供者強制執行。其二,《雲端法》闡明美國與相當多國家長久以來的原則─假設一間公司在特定國家的司法管轄權範圍內,則其所產生的資料應接受該國的管制,資料儲存地為何,在所不問。   《雲端法》的立法背景可以追溯到2013年美國聯邦調查局(Federal Bureau of Investigation, FBI)進行緝毒受阻。當時,涉案美國公民的電子郵件存於微軟境外伺服器,FBI持有搜索令,但是微軟以《1986年儲存通訊紀錄法》管轄範圍不及於美國境外為由,拒絕提供系爭電子郵件。2016年聯邦第二巡迴上訴法院於Microsoft Corp. v. United States判決微軟勝訴─美國政府不得強制取得境外伺服器資料。然而,此訴訟存在相當多爭議,復有2018年《雲端法》之制定,微軟亦對《雲端法》表示支持。《雲端法》通過時,最高法院尚未做出判決;最終,最高法院於2018年4月17日撤銷Microsoft Corp. v. United States。2019年4月10日,美國司法部發布雲端法白皮書,匯集刑事和國家安全專業的律師之意見,並回答常見的問題,希望提升全球的公共安全、隱私及法治。

新加坡網路安全局發布人工智慧系統安全指南,以降低AI系統潛在風險

新加坡網路安全局(Cyber Security Agency of Singapore, CSA)於2024年10月15日發布人工智慧系統安全指南(Guidelines on Securing AI Systems),旨在強化AI系統安全,協助組織以安全之方式運用AI,降低潛在風險。 該指南將AI系統生命週期分成五個關鍵階段,分別針對各階段的安全風險,提出相關防範措施: (1)規劃與設計:提高AI安全風險認知能力,進行安全風險評估。 (2)開發:提升訓練資料、模型、應用程式介面與軟體庫之供應安全,確保供應商遵守安全政策與國際標準或進行風險管理;並辨識、追蹤及保護AI相關資產(例如模型、資料、輸入指令),以確保AI開發環境安全。 (3)部署:適用標準安全措施(例如存取控制、日誌記錄),並建立事件管理程序。 (4)運作與維護:持續監控AI系統的輸入和輸出,偵測異常與潛在攻擊,並建立漏洞揭露流程。 (5)壽命終期:應根據相關行業標準或法規,對資料與模型進行適當之處理、銷毀,防止未經授權之存取。 CSA期待該指南發布後,將有助於預防供應鏈攻擊(supply chain attacks)、對抗式機器學習攻擊(Adversarial Machine Learning attacks)等安全風險,確保AI系統的整體安全與穩定運行。

從國外案例談軟體漏洞資訊公布與著作權防盜拷措施

TOP