ECODIR之線上爭端解決機制介紹

刊登期別
2004年12月
 

※ ECODIR之線上爭端解決機制介紹, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=774&no=0&tp=1 (最後瀏覽日:2026/04/09)
引註此篇文章
你可能還會想看
OECD發布《抓取資料以訓練AI所衍生的智慧財產問題》報告

經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2025年2月9日發布《抓取資料以訓練AI所衍生的智慧財產問題》報告(Intellectual property issues in artificial intelligence trained on scraped data),探討AI訓練過程中「資料抓取」對智慧財產之影響,並提出政策建議,協助決策者保障智財權的同時推動AI創新。 資料抓取是獲取AI大型語言模型訓練資料之主要方法,OECD將其定義為「透過自動化方式,從第三方網站、資料庫或社群媒體平臺提取資訊」。而未經同意或未支付相應報酬的抓取行為,可能侵害作品之創作者與權利人包括著作權、資料庫權(database rights)等智慧財產及相關權利。對此,報告分析各國政策法律的因應措施,提出四項關鍵政策建議: 一、 訂定自願性「資料抓取行為準則」 訂定適用於AI生態系的準則,明確AI資料彙整者(aggregators)與使用者的角色,統一術語以確保共識。此外,準則可建立監督機制(如登記制度),提供透明度與文件管理建議,並納入標準契約條款。 二、 提供標準化技術工具 標準化技術工具可保護智財權及協助權利人管理,包括存取控制、自動化契約監控及直接支付授權金機制,同時簡化企業合規流程。 三、 使用標準化契約條款 由利害關係人協作訂定,可解決資料抓取的法律與營運問題,並可依非營利研究或商業應用等情境調整。 四、 提升法律意識與教育 應提升對資料抓取及其法律影響的認知,協助權利人理解保護機制,教育AI系統使用者負責任地運用資料,並確保生態系內各方明確瞭解自身角色與責任。

美國國安局網站違法使用長期性“Cookies”

  雖然美國政府明文規定禁止聯邦政府機關使用長期性“Cookies”,但國家安全局(The National Security Agency, NSA)近日卻被發現將永久性“Cookies”放置於造訪該網站民眾之電腦之情形,且保存期限長達30年(直到2035年)。   所謂“Cookies”,指於使用者端紀錄該用戶造訪某一網站的過程與從事之活動,以使得下次進行相同網路瀏覽更為容易之工具。例如,透過Cookies紀錄的功能,使用者就可以將帳號與密碼記載於電腦中,再次造訪時即不用再次輸入帳號密碼以提供認證。   根據預算管理(Office of Management and Budget, OMB)於2000年公布之備忘錄Memorandum for the Heads of Executive Departments and Agencies(M-00-13)指出,聯邦政府機關除在於「必要需求」(Compelling need)下,不得使用長期性的“Cookies”。所有留在造訪民眾端的“Cookies”,必需隨著用戶關閉視窗而被消除。   NSA發言人Don Weber表示,NSA網站過去所使用的“Cookies”都是會隨者造訪者關閉網頁即刪除的暫時性“Cookies”,而這次之所以會產生長期性的“Cookies”留存在造訪者端,完全是因為NSA電腦系統更新不小心產生的,並非刻意用來作為監視使用者之工具。但民間團體則表示,這顯示了聯邦政府機關缺乏對於隱私權規範之認知,違反了國家最基本的隱私保護規範還不自知。   目前NSA已修正該程式,並清除了這些長期性的“Cookies”。

美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見

  美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。   依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。   依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。   此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。   最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。

歐盟「開放網路規則」實施指引

  歐盟會員國電子通訊傳播監理機關組織(Body of European Regulators for Electronic Communications, BEREC)於2016年8月公布「歐盟會員國網路中立規則監理機關執行指引」(BEREC Guidelines on the Implementation by National Regulators of European Net Neutrality Rules)。本執行指引係依歐盟於2015年11月通過之「有關開放網路近用並修正全球服務與使用者有關電子通訊網絡與服務之第2002/22/EC號指令以及於歐盟境內於公用行動通訊網絡進行漫遊之第531/2012號規則」的第2015/2120號規則(下稱「開放網路」規則)第5條第(3)項所訂定,用以作為歐盟各會員國相關監理機關於實施「開放網路」規則時之參考依據。   以網路中立性所蘊涵之不歧視原則為例,「開放網路」規則第3條第3項第一段規定,「網際網路近用服務提供者於提供相關服務時,對所有流量應平等對待(treat all traffic equally),而無歧視、限制、或干擾,且亦不論係對於發送方與接收方、所近用或散布之內容、所使用或提供之應用或服務、或所利用之終端設備」。對此,執行指引明確表示,不歧視原則是網際網路服務提供者在提供網路近用服務時之義務,且對於本項之違反,亦將同時構成對於終端使用者受「開放網路」規則第3條第1項所保障權利之侵害。不過執行指引也強調,各會員國相關監理機關應該注意到,所謂的「平等對待」不必然意味著所有終端使用者都將體驗相同的網路效能或服務品質。

TOP