何謂美國NITRD計畫 ?

  美國NITRD計畫係指支持「網絡運作與資訊科技研發計畫(Networking and Information Technology Research and Development,NITRD)」之政府補助計畫。美國國會推動所謂的「網絡運作與資訊科技研發現代法(Networking and Information Technology Research and Development Modernization Act)」新法案,藉此取代1991年通過的高速運算法(High Performance Computing Act),進行現代化修法。新法將用來繼續支持「網絡運作與資訊科技研發計畫(Networking and Information Technology Research and Development,NITRD)」之政府補助計畫,統整21個聯邦行政機關用於發展資通訊科技之業務與預算,提升政府整體效率。藉由補助學校之外,以公私協力之方式補助企業發展非加密網路、電腦、軟體、資安及相關資訊科技,將藉由加速基礎建設發展,強化資安和隱私保護之資通訊科技。但補助主軸將取代舊法對高速運算電腦研發之重視,轉為重視發展虛實融合系統(Cyber-Physical System,CPS),以利鋪設大數據或物聯網發展所需之資通訊科技基礎建設。而這些資通訊科技的重要性不僅只是影響一般的資通訊科技發展,更能協助其他許多科技及工程領域加速發展,包括從太空科技到生技研發等。

本文為「經濟部產業技術司科技專案成果」

※ 何謂美國NITRD計畫 ? , 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7584&no=57&tp=5 (最後瀏覽日:2026/04/21)
引註此篇文章
你可能還會想看
日本推升農業資料契約指針成為補助計畫要點

  日本農林水產省(以下簡稱農水省)從2021年起於補助計畫要點中規定,農業關係人利用農水省補助金導入智慧農機、無人機、農業機器人、IoT機器等所產生資料,且為系統服務業者取得、保管的情況下,須符合2020年農業領域AI資料契約指引要求之相關程序(下稱GL合規)。系統服務業者可依據農水省網站所提供的GL合規CHECKLIST,自行向律師、專利師等諮詢,評估其與農業資料提供者間契約是否GL合規。農水省亦於2020年年底召開兩場相關說明會,條列出須GL合規之補助計畫清單,且相關計畫規定預計於2021年生效(2021年1月6日至2月10日公開招募之智慧農業實證計畫即已有相關規定)。   前述規定係源自於2020年7月17日日本閣議通過最新版「規制改革實施計畫」,其中與「農業資料利用」相關實施項目為:利用農水省補助金導入智慧農業機械時所締結之契約,應符合2020年農業領域AI資料契約指引之核心精神,保障農民可使用其提供給系統服務業者所保管之數據資料。日本政府為促進農業關係人提供資料,於2020年制定農業領域AI資料契約指引,做為農業資料提供者與智農機具系統服務業者訂立契約時之參考。為更進一步促使系統服務業者獲得農業資料提供者的信賴,透過規制改革實施計畫,將該農業資料契約指針推升成為補助計畫要點,可作為我國農業領域推動資料提供、保護、或流通運用機制之借鏡。

英國政府提交予國會「人工智慧監管規範政策報告」

  英國政府由數位文化媒體與體育大臣(Secretary of State for Digital, Culture, Media and Sport)與商業能源與工業策略大臣(Secretary of State for Business, Energy and Industrial Strategy)代表,於2022年7月18日提交予國會一份「人工智慧監管規範政策報告」(AI Regulation Policy Paper)。內容除定義「人工智慧」(Artificial Intelligence)外,並說明未來政府建立監管框架的方針與內涵。   在定義方面,英國政府認為人工智慧依據具體領域、部門之技術跟案例有不同特徵。但在監管層面上,人工智慧產物則主要包含以下兩大「關鍵特徵」,造成現有法規可能不完全適用情形: (1)具有「適應性」,擅於以人類難以辨識的意圖或邏輯學習並歸納反饋,因此應對其學習方式與內容進行剖析,避免安全與隱私問題。 (2)具有「自主性」,擅於自動化複雜的認知任務,在動態的狀況下持續判斷並決策,因此應對其決策的原理原則進行剖析,避免風險控制與責任分配問題。   在新監管框架的方針方面,英國政府期望所提出的監管框架依循下列方針: (1)針對技術應用的具體情況設計,允許監管機構根據其特定領域或部門制定和發展更詳細的人工智慧定義,藉以在維持監管目標確定與規範連貫性的同時,仍然能實現靈活性。 (2)主要針對具有真實、可識別與不可接受的風險水準的人工智慧應用進行規範,以避免範圍過大扼殺創新。 (3)制定具有連貫性的跨領域、跨部門原則,確保人工智慧生態系統簡單、清晰、可預測且穩定。 (4)要求監管機構考量更寬鬆的選擇,以指導和產業自願性措施為主。   在跨領域、跨部門原則方面,英國政府則建議所有針對人工智慧的監管遵循六個總體性原則,以保障規範連貫性與精簡程度。這六個原則是基於經濟合作暨發展組織(OECD)的相關原則,並證明了英國對此些原則的承諾: 1.確保人工智慧技術是以安全的方式使用 2.確保人工智慧是技術上安全的並按設計運行 3.確保人工智慧具有適當的透明性與可解釋性 4.闡述何謂公平及其實施內涵並將對公平的考量寫入人工智慧系統 5.規範人工智慧治理中法律主體的責任 6.釋明救濟途徑   除了「人工智慧監管政策說明」外,英國政府也發布了「人工智慧行動計畫」(AI Action Plan)文件,彙整了為推動英國「國家人工智慧策略」(National AI Strategy)而施行的相關行動。前述計畫中亦指出,今年底英國政府將發布人工智慧治理白皮書並辦理相關公聽會。

新興經濟體之創新創業機制特色初探

IBM提出「人工智慧日常倫理」手冊作為研發人員指引

  隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability)   由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment)   人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability)   人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。   該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。

TOP