美國聯邦通訊委員會(Federal Communications Commission, FCC)於2015年2月26日公布了新版的網路中立命令後,由於新版方案揭櫫了禁止提供快車道(fast lane)予特定服務業者的重要原則,因此被外界預測將遭到各大網路服務供應商的反彈,一如外界所預期的,美國電信協會(United States Telecom Association, USTelecom)於2015年3月23日在美國華盛頓特區聯邦巡迴上訴法院對FCC的新版法案提起訴訟,USTelecom認為,新版的網路中立法案中,賦予監理機構──亦即FCC太多裁量權限,將使得FCC的權力難以控制,在此同時,德州的一家網路服務業者Alamo (Alamo Broadband Inc.)也基於相類似的理由,於美國紐奧良聯邦巡迴上訴法院對FCC提起訴訟。而實際上,在前開電信業者向法院提起訴訟時,FCC的新版網路中立方案甚至尚未刊登於美國聯邦政府公報(Federal Register),自然也無從討論法律生效時點的問題,這個訴訟程序的瑕疵也立即引起各界的注意,論者咸認這些訴訟都將會遭到法院的駁回,但USTelecom宣稱他們的訴訟標的是生效後的法案。
對於各大電信業者、網路服務供應商的大動作,FCC似乎已經準備好面對這些法律論戰,2015年4月1日,FCC正式將新版的網路中立方案提交予美國聯邦政府公報刊登,依據相關規定,此項行政命令將會在刊登2個月後正式產生法律效力,這也意味著在命令生效後,前開訴訟標的之爭議將不復存在,此後再行提起的訴訟,勢必也將正式地透過司法途徑解決。
FSF( Free Software Foundation,自由軟體基金會)於日前公佈,將針對現行版本GPL Version 2進行更新修訂。由於GPL Version 2自1991 年使用至今未曾修改過,隨著軟體開發技術日新月異,新興網路應用議題亦不斷產生,故確時有必要更新修訂。FSF預定在2006年第一週會公布GPL v3草案,詳細說明每一條條文修改的原因及影響,並提供予IT產業、軟體使用者、以及和GPL v3有利害關係的各界人士,共同彙集多方的意見,以期獲得更廣大的效益。 然改寫GPL v3實屬不易。GPL是世界性的授權條款,但現今世界各國的著作權法與專利法等相關法令規範不一,再加上新興的網路應用技術與模式,GPL v3新規範應儘可能將上述要項考量納入增訂,以避免引發爭議;若是相關爭議順利解決的話,預料2007年年初就可將GPL v3擬訂完成。
英國預計在2025年通過《網路安全與韌性法案》,提升網路和關鍵基礎設施的安全與韌性英國工黨政府在2024年7月17日的議會開幕致詞上宣布,將於2025年提出「網路安全與韌性法案」(Cyber Security and Resilience Bill),用以更新現有的網路與資訊系統規則(The Network and Information Systems Regulations 2018)。現有的法規涵蓋5大行業領域:交通運輸、能源、飲水、健康衛生,以及數位基礎設施和部分數位服務(含網路市集、網路搜尋引擎、雲端運算服務等),分別由12個主管機關負責在各自領域落實該法規。 根據英國國家網路安全中心的評估,英國正面臨著來自敵意國家(或受其資助的行為人)日益增加的威脅。而英國的基礎設施在運作時不應該忽視這些威脅。工黨政府希望加強英國的網路防禦和面臨惡意攻擊時的網路韌性,從而確保英國社會所依賴的基礎設施和關鍵服務能夠持續運作,並確保數位經濟能夠持續增長。 根據目前公布的資訊,該法案將會在既有框架下面針對三個方向進行強化: 1. 擴大法規的職權範圍,將更多的數位服務和供應鏈納入保護範圍,保護英國的必要公共服務,避免受到網路攻擊。 2. 提供監管機關採取必要性網路安全措施的法源依據,從法律層面賦予監管機關採取更多安全措施的權利。 3. 強制要求納管對象網路安全事件通報,讓政府確實掌握網路攻擊的次數與相關資訊,以提升整體英國社會對於此類事件的理解與掌握。 該法案預計於2025年提交給英國議會審議,其對於網路安全、數位基礎設施和關鍵設施的安全保護框架,可以作為我國未來提升數位基礎建設及關鍵設施資訊網路安全的重要參考對象。
美國「人工智慧應用管制指引」美國白宮科學與技術政策辦公室(The White House’s Office of Science and Technology Policy , OSTP)於2020年1月9日發布「人工智慧應用管制指引」(Guidance for Regulation of Artificial Intelligence Application),為美國政府機關起草人工智慧規範並進行管制時提供指引,該指引內要求各機關之規範應遵循以下10項人工智慧原則: 一.公眾對AI之信任:政府對AI之管制或其他措施應促進AI之可靠性、健全性,且於應用上應具備可信性。 二.公共參與:政府應提供機會讓利害關係人參與AI管制規範立法程序。 三.科學實證與資訊品質:科學實證與資訊品質:政府機關發展AI之相關技術資訊,應透過公開且可驗證之方式提供給大眾參考,以提高大眾對AI之信任與協助政策制定。 四.風險分析與管理:應採取以風險為基礎之分析評估方法,確認哪些風險係可接受之風險,或那些風險代表無法接受之損害或所失利易大於預期利益。 五.利益與成本:政府於擬定相關規範時,應小心評估AI對於整體社會之利益,與預期外之效果。 六.彈性:法規應持續滾動檢視與調修以因應AI之創新應用。 七.公平且無歧視:政府應針對AI之應用與決策,考量公平與無歧視相關議題。 八.揭露與透明:透明度與揭露程序之建立可提升公眾對AI應用之信任。 九.安全:政府應特別注意AI系統內所儲存或傳輸資訊之安全與相關安全維護控制措施。 十.跨機關合作:政府各部會或機構間應相互合作與分享經驗,以確保AI相關政策之一致性與可預測性。
敏感科技保護「敏感科技」的普遍定義,係指若流出境外,將損害特定國家之安全或其整體經濟競爭優勢,具關鍵性或敏感性的高科技研發成果或資料,在部分法制政策與公眾論述中,亦被稱為關鍵技術或核心科技等。基此,保護敏感科技、避免相關資訊洩漏於國外的制度性目的,在於藉由維持關鍵技術帶來的科技優勢,保護持有該項科技之國家的國家安全與整體經濟競爭力。 各國立法例針對敏感科技建立的技術保護制度框架,多採分散型立法的模式,亦即,保護敏感科技不致外流的管制規範,分別存在於數個不同領域的法律或行政命令當中。這些法令基本上可區分成五個類型,分別為國家機密保護,貨物(技術)之出口管制、外國投資審查機制、政府資助研發成果保護措施、以及營業秘密保護法制,而我國法亦是採取這種立法架構。目前世界主要先進國家當中,有針對敏感科技保護議題設立專法者,則屬韓國的「防止產業技術外流及產業技術保護法」,由產業技術保護委員會作為主管機關,依法指定「國家核心科技」,但為避免管制措施造成自由市場經濟的過度限制,故該法規範指定應在必要的最小限度內為之。