美國總統歐巴馬宣布增加強化美國網路安全預算經費

  為強化並有效因應網路安全相關議題,美國總統歐巴馬日前於4月10日提出在2014財政年度(於2013年10月開始起算)增加強化網路安全經費之建議,期待透過藉由加強並建置相關網路安全機制的方式,有效解決目前美國所面臨來自中國、伊朗、俄國、以及其他國家之的網路安全威脅;同時,其亦希望藉此厚植並改善美國政府,以及私人企業的電腦網絡防禦能力。

 

  本次由美國總統歐巴馬所提出的國家網路安全策略主要可區分為二部分:1. 加強美國網路事件(cyber incidents)的彈性度,以及2. 減少網路威脅事件。首先針對加強美國網路事件彈性度的部份,主要會透過a. 強化美國數位基礎建設,進而能有效抵禦滲透和干擾,b. 改善美國對於複雜和敏捷的網路威脅防禦能力,以及c. 培養針對不同類型的網路事件,皆能快速應變並恢復的能力,這三個方法來加以落實。而就減少網路威脅事件的部份,則計畫以透過a. 與美國友邦結盟的方式,共同研議國際網路規範,b. 強化網路犯罪的法律執行能力,和c. 遏止潛在對手就現有之美國網路漏洞採取不當行動,三個策略模式的實施來加以實踐。然而除了上述的兩個策略及其子項的具體落實外,美國政府亦強調串連各政府部門,以及私人企業團體間之合作重要性,以及建立一個能夠使得網路維護人員及其他相關人員,得以快速取得相關網路安全資訊的便捷管道亦為重要。

 

  隨著全球資通訊網路交流互動以及依賴程度日益增長,如何有效兼顧個人網路安全隱私及使用自由,並同時確保網路資訊流通的安全性,乃為目前強加網路安全的重要關注焦點。本次美國總統歐巴馬所提出的網路安全推動策略走向,及其如何加以落實,實值得持續關注。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 美國總統歐巴馬宣布增加強化美國網路安全預算經費, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=6034&no=67&tp=1 (最後瀏覽日:2026/04/21)
引註此篇文章
你可能還會想看
德國隱私保護機構指稱Facebook實名制違法

  Facebook之實名制政策禁止用戶使用假名,此一行為已遭德國隱私保護機構禁止。德國Schleswig-Holstein邦的資料保護中心組織(Office of the Data Protection Commissioner,簡稱ULD)控訴臉書「實名制」已違反德國電信媒體法(Telemediengesetz)。依據德國「電信媒體法」規定,只要匿名的使用具有技術上之合理性及可行性時,服務供應商必須允許用戶採用假名,惟Facebook的實名制政策卻禁止用戶使用假名。資料保護中心表示,Facebook要求用戶註冊時須填入真實姓名,違反德國電信媒體法第13條第6項。ULD表示,為確保網路用戶權利及遵守網路保護法,臉書應立即終止實名制的執行。Facebook發言人則對ULD指控不以為然,主張「服務供應商有權在現行法律下自行決定所採取之匿名政策」,並表示Facebook採取實名制係為保護社群安全,若發現用戶使用假名將刪除帳號。Facebook發言人認為「這只是在浪費德國納稅人的金錢!此法律之指控毫無意義,同時我們也將據理力爭。」Facebook認為,實名制是該網站經營之重要機制,除了能與其他社群網站做出明顯的市場區隔外,更能積極保護用戶的個人資料。

JST(日本科學技術振興機構)發表關於大學智財的政策建言

  於回顧過去10多年來在大學智慧財產相關的政策措施以後,日本科學技術振興機構(JST)智慧財產戰略中心於7月5日就「政策建言-回首長達十多年的大學智財相關政策措施並探求今後的發展」總結作出發表。根據外識學者專家所組成的JST智慧財產戰略委員會所作成的研議,其就大學智財此後所追求的目標願景,以及為達成該願景各個部門(政府、大學、技轉中心與JST)各自所應扮演的角色提出了整體的建議。   在建言中提到,大學智財的目標願景乃在於「以未來運用為導向擬定智財策略」與「確保研究成果轉化智慧財產,積極回饋國民社會」,並列舉各部門為達成目標願景所應執行之任務。   建言中主要提到的各部門任務如下所述: 【日本政府的任務】 ‧對於大學的智財評價,不應只限授權金收入,也應考慮共同研究、創新育成(由大學孕育而生的新創企業)的創出效果。 ‧應建構於獲得革新性的研究成果時,能夠搶先取得基礎專利、強化週邊專利的策略性的、機動性的強而有力的智財支援體制。 【日本大學、技轉中心的任務】 ‧為創造強勢的專礎專利,應能確保具備優秀判斷力的人材,與應進行充分的先前技術檢索。 ‧應以大學成果的早期實用化為導向,推進與中小、新創企業的合作關係。 ‧思考大學間、技轉中心間多樣而有效果的合作形態,積極謀求提升技轉機會。 ‧強化對學生與研究者的智財教育與智財進修。 【JST的任務】 ‧研析早期而積極的智財發掘與迅速而機動的資金投入等等主動性的支援模式。 ‧進行熟悉海外技術移轉的專業人材的配置與培育,且就對大學專利之權利侵害提供設置諮詢窗口等的支援措施。 ‧促進大學閒置專利的海外技術移轉。 ‧研議於鉅額資金投入而有多數大學、企業參與之特定大型計劃的場合,不受日本版the Bayh-Dole Act條款的限制,而由特定公共的機關等執行專利的管理。

因應京都議定書生效壓力 工廠溫室氣體減量 將訂規範

  全國能源會議於六月二十日登場,面對京都議定書生效壓力,新舊工廠未來究竟應如何減量,備受企業高度關切,經濟部已擬出政策規劃,將自二○○七年開始推動既設工廠溫室氣體減量措施,至二○一五年減量一○%(二千年為減量基準年)。   工業部門溫室氣體排放量占全國排放總量五五%,但占全國 GDP 比例逐漸減少,工業局計畫在全國能源會議中,提出多項溫室氣體減量措施。   為建立產業減量機制,工業局規劃出短、中、長期三階段減量計畫外,並提出攸關溫室氣體查核機制的能源效率計算模式,藉由會議尋求共識後,逐步落實。   據瞭解,能源效率計算機制因各國規劃採取的措施不同而所有差異,有國家採用每人耗能量為計算基準,也有以生產產品所需耗能量計算,或是每創造單位國內生產毛額所需耗用的能源計算(即能源密集度)。   工業局認為,以能源密集度做為我國工業查核指標,可顯示能源消費與該產業的邊際效應變化趨勢,有助於落實工業部門減量策略的執行,因此建議我國未來在產業溫室氣體排放查核機制上,以能源密集度為查核指標。   至於,在溫室氣體減量機制上,工業局規劃我國自二○○七年時推動既設工廠實施溫室氣體減量措施,並至二○一五年時達到溫室氣體排放密集度降低一○%的目標,而其減量的基準年為二千年;在新設廠方面,則以全球一○%標竿能源效率製程的排放密集度擬訂排放標準加以審議。

澳洲數位轉型局12月發布《政府負責任使用人工智慧政策2.0》,以強化公部門之AI風險管理

2025年12月初,澳洲數位轉型局(Digital Transformation Agency,下稱DTA)發布《政府負責任使用AI政策2.0》(Policy for the responsible use of AI in Government 2.0),旨在進一步強化公部門在AI的透明度、問責性與風險管理能力,於2025年12月15日生效,取代 2024年9月實施的過渡版本。 一、適用範圍 政策適用於所有非企業型聯邦實體(Non-corporate Commonwealth entities),即不具獨立法人地位、直接隸屬於政府的機關或單位。企業型聯邦實體則被鼓勵自願遵循。政策定位為「補充與強化既有法制」,非另訂獨立規範,因此在實務中須與公務員行為準則、資安規範及資料治理制度併行適用。 二、政策重點 在政策施行的12個月內,適用機關須完成以下要求,以確保落實AI治理架構: (一)制度建置 1. AI 透明度聲明:機關須在政策生效後 6 個月內發布「AI 透明度聲明」,公開 AI 使用方法與現況。聲明中須說明機關風險管理流程、AI 事件通報機制及內外部申訴管道,確保使用過程透明、可追蹤。 2. 人員指定與培訓: 機關須指定制度問責人員(Accountable officials)以及AI使用案例承辦人(Accountable use case owners)。 所有員工皆須進行關於負責任使用AI的培訓,機關並依員工職務權責提供個別員工進階訓練。 3. 建立內部AI使用案例註冊清單(Internal AI use case register),以供後續追蹤 該清單至少包含: (1)使用案例負責人(Accountable use case owners):記錄並持續更新範疇內 AI 使用案例的指定負責人。 (2)風險等級(Risk rating):AI使用案例的風險等級資訊。 (3)異動紀錄:當使用案例的風險評級或負責人變更時,須即時更新清單。 (4)自定義欄位:各機關可根據其需求,自行增加欄位。 (二)AI 使用案例範疇判斷 機關須在評估所有新案例,依以下特徵判斷AI應用是否屬於「範疇內(In-scope)」的應用: 1.對個人、社群、組織或環境造成重大損害。 2.實質影響行政處分或行政決策。 3.在無人工審查的情況下,大眾將直接與AI互動或受其影響。 4.涉及個人、敏感資料等資訊。 (三)進階風險評估 依AI影響評估工具(Impact Assessment Tool)針對公眾近用權;不公平歧視;加重刻板印象;損害人、組織或環境;隱私顧慮;資料敏感之安全顧慮;系統建置之安全顧慮;公眾信任等8類別,加以判斷範疇內AI應用,若有任一類別被評為「高風險」,即判定為「高風險」;若所有類別中最高的分數為「中風險」,則整體判定為中風險。 判定為中、高風險之AI應用,均需進行全面審核。中風險須列出所有中風險項目及其控管措施,主要為內部控管;而高風險則要求向DTA報告,且每年至少進行一次全面審核與風險再評估。 澳洲欲透過發布AI透明度聲明、更新AI使用案例註冊清單、強制執行AI應用之風險評估及人員培訓,確保公部門對AI的負責任使用與問責。而我國企業可參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,落實AI資料管理與追蹤。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

TOP