美國能源系統需求面管理法制議題之探討

刊登期別
第26卷第5期,2014年05月
 

※ 美國能源系統需求面管理法制議題之探討, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6580&no=64&tp=1 (最後瀏覽日:2025/11/23)
引註此篇文章
你可能還會想看
部落格及其法律問題之初探

澳洲P2P業者Kazaa面臨存亡的最後通牒

澳洲雪梨聯邦法院於本月 24 日對分散式 P2P 業者 Kazaa 發出命令,要求 Kazaa 營運商 Sharman Networks 必須在 10 日內( 12 月 5 日之前),在其提供下載的軟體中加入關鍵字過濾技術( keyword filter system ),否則應立即停止營運。市場人士普遍認為 Kazaa 暫時停止營運的可能性相當地高。   源起於去年底澳洲當地唱片業者控告 Kazaa 一案,今年 9 月 5 日澳洲聯邦法院認定 Kazaa 營運商 Sharman Networks 構成著作權侵害,除判決唱片業者勝訴外,法院並判定 Kazaa 必須在 2 個月內修改其軟體程式,加入相關過濾技術,以避免使用者傳輸違法音樂檔案;另一方面,判決賦予唱片業界得提交 3000 個關鍵字名單 ( 包括了曲目及歌手姓名 ) 要求 Kazaa 加以過濾的權利,該名單並得每兩週加以更新。   直至本月 24 日, Kazaa 仍表示其無法控制高達 100 萬使用者的個人行為,拒絕修改其提供下載的 P2P 軟體,導致聯邦法院不得不下達最後通牒。 Kazaa 營運商 Sharman Networks 雖已提起上訴,但在現時關鍵字過濾技術實施不易之下,澳洲 Kazaa 恐將步上已於本月 7 日關閉的 Grokster 後塵。

法國CNIL發布針對應用程式的隱私保護建議

在民眾越來越依賴行動裝置的應用程式進行日常活動的年代,諸如通訊、導航、購物、娛樂、健康監測等,往往要求訪問更廣泛的資料和權限,使得應用程式相較於網頁,在資料安全與隱私風險上影響較高。對此,法國國家資訊自由委員會(Commission Nationale de l'Informatique et des Libertés, CNIL)於2024年9月發布針對應用程式隱私保護建議的最終版本,目的為協助專業人士設計符合隱私友好(privacy-friendly)的應用程式。該建議的對象包含行動裝置應用程式發行者(Mobile application publishers)、應用程式開發者(Mobile application developers)、SDK供應商(Software development kit, SDK)、作業系統供應商(Operating system providers)和應用程式商店供應商(Application store providers),亦即所有行動裝置生態系中的利害關係者。以下列出建議中的幾項重要內容: 1. 劃分利害關係者於手機生態系中的角色與責任 該建議明確地將利害關係者間作出責任劃分,並提供如何管理利害關係者間合作的實用建議。 2. 改善資料使用許可權的資訊提供 該建議指出,應確保使用者瞭解應用程式所請求的許可權是運行所必需的,並且對資料使用許可的資訊,應以清晰及易於獲取的方式於適當的時機提供。 3. 確保使用者並非受強迫同意 該建議指出,使用者得拒絕並撤回同意,且拒絕或撤回同意應像給予同意一樣簡單。並再度強調應用程式僅能在取得使用者知情同意後,才能處理非必要資料,例如作為廣告目的利用。 此建議公布後,CNIL將持續透過線上研討會提供業者支援,協助其理解和落實這些建議。同時,CNIL表示預計於2025年春季起,將對市面上應用程式實行特別調查,透過行政執法確保業者遵守相關隱私規範,尤其未來在處理後續任何投訴或展開調查時,會將此建議納入考慮,且會在必要時採取糾正措施,以有效保護應用程式使用者的隱私。 .Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} .Psrc{text-align: center;}

世界經濟論壇發布《人工智慧公平性和包容性藍圖》白皮書

  世界經濟論壇(World Economic Forum, WEF)於2022年6月29日發布《人工智慧公平性和包容性藍圖》白皮書(A Blueprint for Equity and Inclusion in Artificial Intelligence),說明在AI開發生命週期和治理生態系統中,應該如何改善公平性和強化包容性。根據全球未來人類AI理事會(Global Future Council on Artificial Intelligence for Humanity)指出,目前AI生命週期應分為兩個部分,一是管理AI使用,二是設計、開發、部署AI以滿足利益相關者需求。   包容性AI不僅是考量技術發展中之公平性與包容性,而是需整體考量並建立包容的AI生態系統,包括(1)包容性AI基礎設施(例如運算能力、資料儲存、網路),鼓勵更多技術或非技術的人員有能力參與到AI相關工作中;(2)建立AI素養、教育及意識,例如從小開始開啟AI相關課程,讓孩子從小即可以從父母的工作、家庭、學校,甚至玩具中學習AI系統對資料和隱私的影響並進行思考,盡可能讓使其互動的人都了解AI之基礎知識,並能夠認識其可能帶來的風險與機會;(3)公平的工作環境,未來各行各業需要越來越多多元化人才,企業需拓寬與AI相關之職位,例如讓非傳統背景人員接受交叉培訓、公私協力建立夥伴關係、提高員工職場歸屬感。   在設計包容性方面,必須考慮不同利益相關者之需求,並從設計者、開發者、監督機關等不同角度觀察。本報告將包容性AI開發及治理整個生命週期分為6個不同階段,期望在生命週期中的每個階段皆考量公平性與包容性: 1.了解問題並確定AI解決方案:釐清為何需要部署AI,並設定希望改善的目標變量(target variable),並透過制定包容性社會參與框架或行為準則,盡可能實現包容性社會參與(特別是代表性不足或受保護的族群)。 2.包容性模型設計:設計時需考慮社會和受影響的利益相關者,並多方考量各種設計決策及運用在不同情況時之公平性、健全性、全面性、可解釋性、準確性及透明度等。 3.包容性資料蒐集:透過設計健全的治理及隱私,確定更具包容性的資料蒐集路徑,以確保所建立之模型能適用到整體社會。 4.公平和包容的模型開發及測試:除多元化開發團隊及資料代表性,組織也應引進不同利益相關者進行迭代開發與測試,並招募測試組進行測試與部署,以確保測試人群能夠代表整體人類。且模型可能隨著時間發展而有變化,需以多元化指標評估與調整。 5.公平地部署受信任的AI系統,並監控社會影響:部署AI系統後仍應持續監控,並持續評估可能出現新的利益相關者或使用者,以降低因環境變化而可能產生的危害。 6.不斷循環發展的生命週期:不應以傳統重複循環過程看待AI生命週期,而是以流動、展開及演變的態度,隨時評估及調整,以因應新的挑戰及需求,透過定期紀錄及審查,隨時重塑包容性AI生態系統。   綜上,本報告以包容性AI生態系統及生命週期概念,期望透過基礎設施、教育與培訓、公平的工作環境等,以因應未來無所不在的AI社會與生活,建立公司、政府、教育機構可以遵循的方向。

TOP