澳洲政府提出網路分級之安全措施

  澳洲政府在2009年12月15日對外公佈網路安全(cyber-safety)措施,包含:
1. 強制要求加裝ISP層級之網路分級過濾系統;
2. 給予提供家庭用戶額外過濾系統之ISP業者補貼;
3. 藉由澳洲通訊及媒體局(Australian Communications and Media Authority)及其他單位所建立之網路安全計畫,推動網路安全之教育和認知。

 

  澳洲主管機關欲修法對於未依規定做出分級之網站及遭檢舉者,將會列入黑名單,封鎖其網路連線。並要求所有ISP業者必須封鎖所有含有不當內容(Refused Classification-rated material)之國外伺服器(servers),所謂內容不當包含,兒童性虐待、獸交、強制性交在內之性暴力、和過度詳細之犯罪行為或毒品使用。

 

  該項立法若通過,澳洲將會成為民主國家中網路管制最嚴格之國家。

  提出該法案之議員表示:「網路安全沒有萬無一失之保護方式,但是對於所有澳洲人,特別是孩童來說,遠離這些內容,是非常重要的。」

  網路權益團體「澳洲電子先鋒」(Electronic Frontiers Australia)則質疑,「政府明知這樣的措施並無法幫助孩童,也不能幫助取締禁止該等內容。」其他網路使用者及情色網站業者,亦認為執法難以落實,部分合法網站可能反被封鎖,網路連線速度也可能受到影響。且網友常使用的點對點傳輸(P2P)或透過聊天室傳送檔案,均不在法案管制可及之處等。

相關連結
※ 澳洲政府提出網路分級之安全措施, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=3225&no=16&tp=1 (最後瀏覽日:2025/07/07)
引註此篇文章
你可能還會想看
美國聯邦法官指出藥用基改作物之種植應予嚴格管理

  美國聯邦法院最近判決美國聯邦官員在 2001 年及 2003 年,允許四家企業在夏威夷種植基改作物以生產試驗用藥的行為,違反環境法規。該許可內容涉及許可在夏威夷州 Kauai, Maui, Molokai and Oahu 種植玉米或甘蔗。   本案法官 Michael Seabright 判決中特別指出,鑑於夏威夷州乃是許多瀕臨絕種或受到絕種威脅的生物的棲地-該州計有 329 種罕見生物,占全美瀕臨絕種生物及受到絕種威脅生物種類之四分之一,而美國農業部動植物健康檢疫服務( Department of Agriculture's Animal and Plant Health Inspection Service )在許可種植基改作物前,竟未先進行初步的環境檢視( preliminary environmental reviews ),很明顯地已違反該機關依據瀕臨絕種生物法( Endangered Species Act )及國家環境政策法( National Environmental Policy Act )所應盡之義務。   本案原告 EarthJustice 認為,本案是第一件聯法院就 biofarming 所做之判決。所謂 biopharming 係指研究人員利用基改技術將植物用來作為生產藥品、抗體、疫苗等生技藥物的生物反應器( bioreactors )。由於植物可以大量栽種,因而若 biopharming 技術可行,將可有效解決生技藥物供給短缺的問題,嘉惠更多的病患,因而, biopharming 被視為未來可能顛覆傳統的藥物生產的一種生技藥物製造方式。目前, biopharming 廣泛使用的植物包括玉米、煙草等。   biopharming 的構想可以較低的成本解決部分生技藥物生產的問題,但其構想看似極具吸引力,不過發展 biopharming 並非毫無挑戰,尤其是如何就藥用基改植物予以隔離管理,避免基因污染。反對者一般主張,藥用基改植物 並未通過食用安全性測試,並不適合人體食用或是當作家畜飼料, 如果栽種藥用基改植物的隔離管理未做好把關,難保這些本應受到嚴格管制的治療性植物進入到食物供應鏈,影響民眾的身體安全。   在民眾健康及環境生態安全的考量下,反對推展 Biopharming 的力量也越來越大,本案即是一個明顯的例子。

<開原碼條例>建置醫療資源共享架構

  UCLA醫學中心以開放原始碼軟體Zope建置資訊系統,展開一項稱為「治療成效開放式架構」(OIO, Open Infrastructure for Outcomes) 的計畫,構築起未來醫療資訊系統的新基石。讓治療成效的資訊,能在一個共通的平台架構上進行資源分享。   長期以來,醫療資訊系統面臨的挑戰主要來自於下列三個面向:一、如何讓資訊系統提供令人滿意的服務功能,以取代將醫療記錄登載在紙張上的傳統方式。二、資訊系統的需求經常會改變,如何快速因應系統的改變需求。三、如何與其他醫療團隊夥伴,共同分享資料與工具。   OIO計劃透過資訊共享可加速醫療研究。開放式架構計畫的主要目的,並不是用來要求臨床工作者與醫療研究中心分享病歷資料,而是提供一個分享管理工具的機制,讓使用者能夠利用這些管理工具,進行資料的收集與分析,並和特定的診療研究人員進行溝通,而透過系統安全的機制,在過程當中並不會讓其他人得知資料內容。不過,如果有人想要進行管理工具或資料的進一步加值利用,僅需額外投入相當小的成本。   另外, 開放式架構計畫的設計極具彈性,除了目前所專注的治療成效資訊統計之外,其系統概念也可以用來管理客戶資訊、進銷存資訊、會計資訊等。整個系統開發環境是針對使用者而設計,而非程式人員,並且以網頁應用程式來實作,力求操作的便利性,目的之一是讓使用者能夠動手創造出自己所需的表格資料。另一方面,設計上也面對來自於法律與技術層面的挑戰,例如取得病患的同意及對系統的信任感,促使這套系統在實作時,必須能夠提供高度的修改彈性與安全性。   由於 OIO 在設計上,包含低成本、高效益、使用者導向、架構具有彈性等特色,並以開放源碼開發模式來鼓勵使用者測試及提供回饋意見,目前的應用效果持續擴大中。

歐盟與17家社交網站業者達成協議,強化青少年上網安全

  受惠於網路的高度普及與上網費用的調降,網路已成為民眾日常生活所不可或缺的事項。由於整體網路人口中,青少年占有極高的比重,如何提供青少年一個安全的網路空間,向為各國所關注的議題。     近年來社交網站在歐洲發展迅速,根據統計,現階段歐洲約有4,170萬的網路使用者,參與各種類型的社交網站。為防止日益嚴重的網路霸凌(Cyber-Bulling)及兒童賣春等問題,歐盟於2009年2月與MySpace、Facebook等17家社交網站達成協議,相關業者承諾將於自家網站上提供一個「申告侵害」(Report Abuse)的按鍵,便利使用者快速通知業者來自於他人的不合宜接觸或行為,以防止青少年受到網路霸凌或網路援交訊息的困擾。     社交網站業者除承諾提供上述通報機制外,在此次協議中,業者亦承諾強化青少年個人隱私的保護,以避免有心人士輕易透過社交網站,取得青少人之私密資料。

南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引

南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。 在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。 為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。 指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。 針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。 而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。 最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。 該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。

TOP