保護、分級與言論(上)

刊登期別
2005年04月,第185期
 

相關附件
※ 保護、分級與言論(上), 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=761&no=57&tp=1 (最後瀏覽日:2025/12/02)
引註此篇文章
你可能還會想看
Google新版桌面搜尋工具引發隱私權顧慮

  Google在2006年2月11日推出最新版的桌面搜尋工具Google Desktop 3,它的最新功能可以讓用戶同時搜尋多台電腦的資料。當啟用這項功能後,它會將電腦裡的文件和文字檔案(如Word、Excel)內容予以複製上傳到Google的伺服器上。當用戶在一台電腦搜尋資料時,也會在其他台安裝此工具的電腦自動開始搜尋。Google 表示,目前已經有很多人同時使用數台電腦,這個新功能可以讓使用者的生活更為便利。   但是倡導網路隱私權的團體Electronic Frontier基金會卻表示憂慮。由於新功能可能會讓駭客更容易盜取用戶個人資料,用戶的個人隱私將面臨更大的威脅。該基金會律師Fred von Lohmann認為,使用者應重視個人資料被放在Google伺服器上可能產生的問題,這比便利性更為重要。因為使用時若未花時間處理功能選項和設定問題,它將可能導致個人資料諸如納稅、醫藥和財物紀錄,以及其他文字檔案等資料外洩。

歐盟將立替代能源新法

  日前,歐盟執委會於2008年1月23日提交了一份關於整合性發展境內替代能源之新法制架構指令建議案,並欲藉該建議案來進一步促進生質能、太陽能與風能等相關新興能源技術之開發。該建議案還提到,歐盟所屬會員國原則上須依據於2005年當時替代能源之貢獻比例為基礎,再向上調增5.5%後來作為該會員國之替代能源預定貢獻目標。不過,考量各會員國之國情並不相同,故該建議案要求歐盟對於各會員國替代能源預定貢獻目標之制定,應採「差別化」之方式,使其可先自由調整與決定究欲採取何種比重與模式來發展各類替代能源,最後,再將所決定之能源發展策略大綱置於國家行動方案書內(National action plans, 簡稱NAP),並於2010年3月31日前提交執委會進行審核。此外,執委會也設定了一系列短期性目標,以確保能漸次穩定地朝2020年之目標前進。而有關開發生質能及永續性方面,鑑於生質燃料之發展仍具相當之爭議,故於飽受各界沉重之壓力下(如:非政府民間組織以及科學聯盟團體),未來布魯塞爾方面勢要提出一更加周嚴之永續性基準,以確保在該建議案所制定之生質燃油目標下,不會進一步導致生態系統失衡、森林濫伐、人口遷徙、糧食價格上漲以及釋放更大量CO2等問題產生。

開放非銀行事業從事預付式行動付款服務法制議題之研究

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

TOP