美國白宮於2019年5月發布總統令,提升聯邦及全國之資安人力

  美國白宮(the White House)於2019年5月2日發布第13870號總統令(Executive Order),旨在說明美國的資安人力政策規劃。

  於聯邦層級的資安人力提升(Strengthening the Federal Cybersecurity Workforce)上,由國土安全部(Department of Homeland Security, DHS)部長、管理預算局(Office of Management and Budget, OMB)局長及人事管理局(Office of Personnel Management, OPM)局長共同推動網路安全專職人員輪調工作計畫(cybersecurity rotational assignment program),計畫目標包含:輪調國土安全部與其他機關IT及資安人員、提供培訓課程提升計畫參與者之技能、建立同儕師徒制(peer mentoring)加強人力整合,以及將NIST於2017年提出之國家網路安全教育倡議(National Initiative for Cybersecurity Education, NICE)和網路安全人力框架(Cybersecurity Workforce Framework, NICE Framework,以下合稱NICE框架),作為參與者的最低資安技能要求。同時上述部長及局長,須向總統提交報告說明達成上述目標之執行方案。

  於國家層級的資安人力提升(Strengthening the Nation’s Cybersecurity Workforce)上,則表示商務部部長(Secretary of Commerce)、勞工部部長(Secretary of Labor)、教育部部長(Secretary of Education)、國土安全部部長與其他相關機關首長,應鼓勵州、領土、地方、部落、學術界、非營利與私部門實體於合法之情況下,自願於教育、訓練和人力發展中納入NICE框架。此外,將每年頒發總統網路安全教育獎(Presidential Cybersecurity Education Award),給予致力於傳授資安知識之中小學教育工作者。

  綜上所述,美國將透過制度、教育與獎勵等方式培育資安人才,提升國內資安人才的質與量,以因應越來越險峻的資安威脅與風險。

相關連結
你可能會想參加
※ 美國白宮於2019年5月發布總統令,提升聯邦及全國之資安人力, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8294&no=64&tp=1 (最後瀏覽日:2026/04/09)
引註此篇文章
你可能還會想看
美國白宮對具危險性的生物研究提出新規範

  美國白宮為避免由聯邦補助的生物科技研究案,因研究涉及具危險性生物,而不經意製造出生化武器,繼此於2014年9月24日由國家衛生研究院(National Institutes of Health,NIH)和白宮科技政策辦公室(White House Office of Science and Technology)共同提出新規範,即「美國政府對生物科學雙重用途研究與考量的機構監督政策」(United States Government Policy for Institutional Oversight of Life Sciences Dual Use Research of Concern),旨在加強由聯邦預算補助的生物雙重用途研究(Dual Use of Research)安全性。   前述生物科技研究中的生物雙重用途研究,意指以增進公共衛生、國家安全、農業、環境等為主旨的生命科學研究之外,尚有其他具殺傷力或致命性的合法研究,例如合成病毒、除草劑等。早於2013年,美國白宮即已開始實施「美國政府對生物科學雙重用途研究與考量的監督政策」(United States Government Policy for Oversight of Life Sciences Dual Use Research of Concern),惟本次另以機構為主要規範對象。而作成新規範之重點分述為三如下: 1.原先以補助單位(通常為國家衛生研究院),為具危險性生物研究案為監督、責成單位,現將該監督責任歸屬移轉至取得相關補助的科學家、大學或研究機構。 2.從事相關具危險性生物研究之科學家,必須通報其所屬機構,並且須召開審查委員會評估相關風險,亦須通知聯邦層級的補助單位。此外,該科學家與其機構必須提交一份風險防範之計畫書,例如建立生物安全等級(biosafety rating)較高的實驗室等。 3.違反相關規範之受補助對象,將面臨中止、限制或終止補助之處分,甚至失去申請未來聯邦補助單位所補助一切與生命科學相關研究補助的機會。

澳洲法院正審理乳癌或卵巢癌基因檢測產品可專利性訴訟

  BRCA1與BRCA2乃兩個已經被確認的基因,係用來檢測婦女是否容易罹患乳癌或卵巢癌的重要基因。在澳洲這個檢測產品是由基因技術有限公司(Genetic Technologies Limited, 以下簡稱GTL)所擁有。因檢測費用高達3,700元美金且無法有其他的檢測選擇,形成獨占。   今(2010)年3月,美國紐約聯邦地方法院(United States District Court Southern District of New York)認為BRCA1與BRCA2等人類基因乃如同血液、空氣或水的結構,屬於自然的產物,不具有可專利性,系爭專利阻礙了乳癌與卵巢癌相關研究與創新,並限制檢測的選擇性,因而作出BRCA1與BRCA2基因不具可專利性之判決。   受到美國判決之影響,今(2010)年6月澳洲的癌症之聲消費者團體(Cancer Voices),及一名患有乳癌的婦女同向雪梨聯邦法院(Australian Federal Court in Sydney)提起訴訟,希望免除GTL對於檢測乳癌與卵巢癌產品的獨占權利。主要理由包括,對人類的一部分(基因)給予專利,不但阻礙了後續研究,也會阻礙乳癌與卵巢癌治療方法的研發,更提高許多病患接受此檢測的障礙。固然專利權人得維持高檢測費用,但有別於傳統工程或技術上的專利,生物技術專利也含有高度追求人類健康之公共利益,因此握有生物技術專利者,實不應利用獨占地位阻礙的人類健康的維持與追求,阻礙醫療或治療方式的研究。   過去澳洲專利局認為自自然產物分離的基因或物質是具有可專利性的,此案若勝訴,澳洲專利局將調整原先承認自自然產物分離的基因或物質,具可專利性之見解,所以該案的後續發展值得我們關注。

聯邦巡迴上訴法院確認同為蘋果供應商的玉晶光並未侵害大立光的專利權

  2013年6月4日大立光在北加州聯邦地方法院起訴玉晶光,主張玉晶光生產的八款透鏡侵害其五件美國專利。就部分的產品玉晶光請求法院裁判無引誘侵權,北加州聯邦地方法院部分准許了玉晶光的請求,之後大立光就無引誘侵權部分上訴聯邦巡迴法院敗訴。   大立光未能主張直接侵權,因為玉晶光絕大部分的透鏡是銷售給蘋果在亞洲的供應鏈中的鏡頭模組廠,鏡頭模組廠再販售給亞洲的系統組裝廠,最後由系統組裝廠整機出售給蘋果,再由蘋果販賣給美國的消費者。這個過程中玉晶光並非唯一的透鏡供應商,大立光也是供應商之一甚至供應量大於玉晶光。   法院贊同並認為引誘侵權是行為人(本案中為蘋果)被引誘而有直接侵權的證據,但大立光在本案中無法證明玉晶光有引誘侵權責任,因玉晶光沒有在美國有直接製造、使用、銷售、許諾銷售或進口的行為,故不構成直接侵權,而玉晶光在本案中並不爭執侵害大立光的專利權,但主張並非是引誘侵權人。   大立光另提出的主張是蘋果的供應鏈是「隨機選擇」大立光或玉晶光的透鏡,因此推論蘋果在美國的產品採用玉晶光的比例,等於蘋果在全世界的產品採用玉晶光的比例,進而認定蘋果在美國有直接侵權。唯聯邦巡迴上訴法院認為大立光關於「隨機選擇」這個主張,沒有提出來自供應鏈的相關證據,所以沒辦法證明蘋果在美國的產品有使用玉晶光的透鏡。大立光可再上訴美國最高法院。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

OECD啟動全球首創的《開發先進人工智慧系統組織的報告框架》

2025年2月7日,經濟合作暨發展組織(Organization for Economic Cooperation and Development,OECD)正式啟動《開發先進人工智慧系統組織的報告框架》(Reporting Framework for the Hiroshima Process International Code of Conduct for Organizations Developing Advanced AI Systems,簡稱G7AI風險報告框架)。 該框架之目的是具體落實《廣島進程國際行為準則》(Hiroshima Process International Code of Conduct)的11項行動,促進開發先進人工智慧系統(Advanced AI Systems)的組織建立透明度和問責制。該框架為組織提供標準化方法,使其能夠證明自身符合《廣島進程國際行為準則》的行動,並首次讓組織可以提供有關其人工智慧風險管理實踐、風險評估、事件報告等資訊。對於從事先進人工智慧開發的企業與組織而言,該框架將成為未來風險管理、透明度揭露與國際合規的重要依據。 G7 AI風險報告框架設計,對應《廣島進程國際行為準則》的11項行動,提出七個核心關注面向,具體說明組織於AI系統開發、部署與治理過程中應採取之措施: 1. 組織如何進行AI風險識別與評估; 2. 組織如何進行AI風險管理與資訊安全; 3. 組織如何進行先進AI系統的透明度報告; 4. 組織如何將AI風險管理納入治理框架; 5. 組織如何進行內容驗證與來源追溯機制; 6. 組織如何投資、研究AI安全與如何降低AI社會風險; 7. 組織如何促進AI對人類與全球的利益。 為協助G7推動《廣島進程國際行為準則》,OECD建構G7「AI風險報告框架」網路平台,鼓勵開發先進人工智慧的組織與企業於2025年4月15日前提交首份人工智慧風險報告至該平台(https://transparency.oecd.ai/),目前已有包含OpenAI等超過15家國際企業提交報告。OECD亦呼籲企業與組織每年定期更新報告,以提升全球利益相關者之間的透明度與合作。 目前雖屬自願性報告,然考量到國際監理機關對生成式AI及高風險AI 系統透明度、可問責性(Accountability)的日益關注,G7 AI風險報告框架內容可能成為未來立法與監管的參考作法之一。建議企業組織持續觀測國際AI治理政策變化,預做合規準備。

TOP