美國寬頻業者推動網路傳輸流量上限管理方案

  有鑑於網路使用人口中,不同使用者族群所消耗的傳輸量比例相差懸殊,美國寬頻業者於近來積極推動網路傳輸流量上限管理計畫,且繼Comcast與Time Warner等業者的初步嘗試後,美國最重要的網路服務提供者—AT&T,也宣布將開始進行客戶網路流量管理計畫。

 

  這項嘗試計畫將以限制新的DSL用戶為起點,其所規定的每月下載與上傳流量上限,係依據客戶申請的寬頻方案有所不同,分別被限制在20G至150G (gigabytes)不定。超過的部分則將持續向使用者警告兩個月後,依每超過1G加收一美元的費用,向使用者收費。

 

  至於提出此項管理方案的理由,據AT&T發言人表示,是因為網路頻寬的使用分佈過於不平均,高達46%的頻寬是5%的使用者在使用,而21%的頻寬更是只為極少數的1%用戶所使用,顯然太過集中。根據AT&T的傳輸上限規定,購買傳輸速度3M (megabits)的寬頻使用者,日後每月的傳輸量上限是60G,這大約等於是下載30部DVD畫質電影的傳輸量。

 

  不過,也有分析師指出,現階段欲全面滿足使用者的頻寬需求,對網路服務提供者而言尚非極大的財務負擔,且管制流量上限的作法,可能對既有以「吃到飽」費率方案為基礎,所發展出來的網路應用服務模式,造成極大的衝擊,此亦也可能引發後續有關網路中立性的政策辯論。

相關連結
※ 美國寬頻業者推動網路傳輸流量上限管理方案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2928&no=66&tp=1 (最後瀏覽日:2026/01/07)
引註此篇文章
你可能還會想看
美民主黨提案開放網路賭博

  美眾議院金融服務委員會主席Barney Frank於4月26日提案撤銷國會去年備受爭議的禁止網路賭博法案,取而代之制定聯邦層級規範架構的「網路賭博規範與執行法案」(Internet Gambling Regulation and Enforcement Act ),以核准賭博公司線上收取美國國民賭金,並對未成年人、強迫性賭博、洗錢與詐欺等須採取保護措施。   布希總統去年十月所簽署通過的法律,要求銀行與信用卡公司拒絕付款給美國司法管轄權外約2300家的賭博網站,造成賭博業的空前危機。Frank在個人網站批評,〝此法律是對美國人身自由的不當的干預〞。壓力不止於此,WTO也稍早議決美國的此限制不合法,因為某些國內的活動如賽馬,排除外國的公司而形成差別的對待。   Frank 所提的新法案將禁止發執照給任何涉嫌違反賭博、洗錢與詐欺或其他金融法等罪行者,且執照的審理與取得將透過財政部防制洗錢法的協助。而未來消費者上網站必須提供姓名、地址、出生日期與相關身分證明號碼,以和線上支付系統作資料核對。   投資公司Friedman Billings Ramsay認為美國國庫預計五年可增加兩億美金的賭博稅收。

因應使用「生成式AI(Generative AI)」工具的營業秘密管理強化建議

2024年7月1日,美國實務界律師撰文針對使用生成式AI(Generative AI)工具可能導致的營業秘密外洩風險提出營業秘密保護管理的強化建議,其表示有研究指出約56%的工作者已經嘗試將生成式AI工具用於工作中,而員工輸入該工具的資訊中約有11%可能包含公司具有競爭力的敏感性資訊或客戶的敏感資訊,以Chat GPT為例,原始碼(Source Code)可能是第二多被提供給Chat GPT的機密資訊類型。系爭機密資訊可能被生成式AI工具提供者(AI Provider)用於訓練生成式AI模型等,進而導致洩漏;或生成式AI工具提供者可能會監控和存取公司輸入之資訊以檢查是否有不當使用,此時營業秘密可能在人工審查階段洩漏。 該篇文章提到,以法律要件而論,生成式AI有產生營業秘密之可能,因為營業秘密與著作權和專利不同之處在於「發明者不必是人類」;因此,由生成式 AI 工具協助產出的內容可能被視為營業秘密,其範圍可能包括:公司的內部 AI 平台、基礎的訓練算法和模型、輸入參數和輸出結果等。惟基於目前實務上尚未有相關案例,故生成式AI輸出結果在法律上受保護的範圍與條件仍需待後續的判例來加以明確。 實務專家提出,即使訴訟上尚未明確,企業仍可透過事前的管理措施來保護或避免營業秘密洩露,以下綜整成「人員」與「技術」兩個面向分述之: 一、人員面: 1.員工(教育訓練、合約) 在員工管理上,建議透過教育訓練使員工了解到營業秘密之定義及保護措施,並告知向生成式AI工具提供敏感資訊的風險與潛在後果;培訓後,亦可進一步限制能夠使用AI工具的員工範圍,如只有經過培訓及授權之員工才能夠存取這些AI工具。 在合約方面,建議公司可與員工簽訂或更新保密契約,納入使用生成式AI的指導方針,例如:明確規定禁止向生成式AI工具輸入公司營業秘密、客戶數據、財務信息、未公開的產品計劃等機密資訊;亦可增加相關限制或聲明條款,如「在生成式AI工具中揭露之資訊只屬於公司」、「限制公司資訊僅能存儲於公司的私有雲上」等條款。 2.生成式AI工具提供者(合約) 針對外部管理時,公司亦可透過「終端使用者授權合約(End User License Agreement,簡稱EULA)」來限制生成式AI工具提供者對於公司在該工具上「輸入內容」之使用,如輸入內容不可以被用於訓練基礎模型,或者該訓練之模型只能用在資訊提供的公司。 二、技術方面: 建議公司購買或開發自有的生成式AI工具,並將一切使用行為限縮在公司的私有雲或私有伺服器中;或透過加密、防火牆或多種編碼指令(Programmed)來避免揭露特定類型的資訊或限制上傳文件的大小或類型,防止機密資訊被誤輸入,其舉出三星公司(Samsung)公司為例,三星已限制使用Chat GPT的用戶的上傳容量為1024位元組(Bytes),以防止輸入大型文件。 綜上所述,實務界對於使用生成式AI工具可能的營業秘密風險,相對於尚未可知的訴訟攻防,律師更推薦企業透過訴訟前積極的管理來避免風險。本文建議企業可將前述建議之作法融入資策會科法所創意智財中心於2023年發布「營業秘密保護管理規範」中,換言之,企業可透過「營業秘密保護管理規範」十個單元(包括從最高管理階層角色開始的整體規劃建議、營業秘密範圍確定、營業秘密使用行為管理、員工管理、網路與環境設備管理、外部活動管理,甚至是後端的爭議處理機制,如何監督與改善等)的PDCA管理循環建立基礎的營業秘密管理,更可以透過上述建議的做法(對單元5.使用管理、單元6.1保密約定、單元6.4教育訓練、單元7.網路與環境設備管理等單元)加強針對生成式AI工具之管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

美國國會圖書館發布例外規則,將10項科技使用行為合法化

  美國國會圖書館(Library of Congress)依據著作權法(Digital Millennium Copyright Act,簡稱DMCA)第1201(a)(1)條授權,於2015年10月28日發布著作權法相關之例外規則(final regulations),明定10項與使用者權益相關的行為屬於著作權法保障之例外情況,將納入合理使用(fair use)範圍,不再視為侵害原著作權人之權利。上述合法的科技使用行為包含: 1.為了教育及其他非商業用途之目的,對視聽媒體所為之重製行為。 2.為了讓視覺或其他功能障礙者使用,對已購買之電子書所為之破解或形式轉換行為。 3.為了連結其他電信公司之網絡,針對手機及其他行動裝置之應用程式,所為之解鎖行為(unlocking)。 4.智慧型手機及其他行動裝置之越獄(jailbreaking)行為。使用者得利用外部工具取得系統最高權限,且不受原系統限制而安裝或解除安裝合法軟體。 5.智慧型電視之越獄行為。使用者得利用外部工具取得系統最高權限,不受原系統限制而安裝或解除安裝合法軟體。 6.汽車軟體之診斷、修理或改裝行為。車主或修車廠等人員得自行診斷、修理或改裝汽車軟體,不限於僅有汽車原廠得檢測或變更軟體。 7.為了促進電腦軟體的安全性,針對個人擁有之消費性家電、車輛及醫療裝置所為之軟體相關安全研究與測試行為。 8.某些需要透過與官方伺服器連線方能正常運作之遊戲軟體,於官方永久結束營運之後,使用者可自行建立伺服器,供擁有合法軟體的使用者繼續使用,但此項條款不包含主要內容儲存於官方伺服器之遊戲。 9.使用者可修改軟體程式,並使用其他的3D列印原料,不限於原廠預設之原料。 10.病人取得自身醫療裝置或監視系統數據之行為。本例外規則通過後,病人可合法取得自身醫療裝置之數據,而不違反著作權法之科技保護措施,不再受限於原先僅有醫院或醫療裝置公司可取得植入式醫療裝置之數據。   美國著作權法授權國會圖書館每三年發布一次例外規則,用以改善著作權法之「科技保護措施」的負面影響,並維護公眾接觸資訊之公共利益。上述第6至10項為本次新增之項目,但本次例外規則並未通過視聽著作空間轉換(space-shifting)及格式轉換(format-shifting)之行為、電子書專用閱讀器之越獄行為、或遊戲機(Video Game Consoles)之越獄行為。   針對開放汽車軟體之破解,某些汽車製造業者基於安全理由表示反對,但消費者方面,表達贊成意見人數明顯多於反對意見者。尤其是福斯汽車(Volkswagen)設計作弊程式通過廢棄排放檢驗的事件發生後,開放消費者得自行診斷、修理或改裝汽車軟體,將能降低此類弊端發生之機率,讓具有汽車軟體相關知識的消費者有機會能檢測汽車本身軟體是否符合法令規範或有任何異常。

德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南

  德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南,旨在提升企業數位化與社會責任,並提升消費者權益保護。   德國司法及消費者保護部次長Gerd Billen於會議中指出,無論技術細節和具體應用如何發展,法律和消費者保護政策應確保人工智慧安全性,且不因此受歧視,以及盡可能確保技術利用透明度。而隨著人工智慧的發展,應設法解決使用人工智慧產生的法律問題。   例如,如何在製造商,供應商和消費者之間公平分配責任歸屬問題?在家庭,物流和手術室等領域已有越來越多具備自我學習的機器人被應用,相關權利是否會有所不同?如果機器出現不明原因故障,會發生什麼情況及如何處置?當機器透過在製造時尚未完全預定的環境感官認知做出具體決定時,該自動行為所生效力為何? 本份指南則提出六項建議: 促進企業內部及外部訂定相關準則 提升產品及服務透明度 使用相關技術應為全體利益著想 決策系統的可靠性仍取決資料的準確性。 重視並解決解決機器偏差問題 在特別需要負責的決策過程,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。

TOP