敏感科技保護

  「敏感科技」的普遍定義,係指若流出境外,將損害特定國家之安全或其整體經濟競爭優勢,具關鍵性或敏感性的高科技研發成果或資料,在部分法制政策與公眾論述中,亦被稱為關鍵技術或核心科技等。基此,保護敏感科技、避免相關資訊洩漏於國外的制度性目的,在於藉由維持關鍵技術帶來的科技優勢,保護持有該項科技之國家的國家安全與整體經濟競爭力。

  各國立法例針對敏感科技建立的技術保護制度框架,多採分散型立法的模式,亦即,保護敏感科技不致外流的管制規範,分別存在於數個不同領域的法律或行政命令當中。這些法令基本上可區分成五個類型,分別為國家機密保護,貨物(技術)之出口管制、外國投資審查機制、政府資助研發成果保護措施、以及營業秘密保護法制,而我國法亦是採取這種立法架構。目前世界主要先進國家當中,有針對敏感科技保護議題設立專法者,則屬韓國的「防止產業技術外流及產業技術保護法」,由產業技術保護委員會作為主管機關,依法指定「國家核心科技」,但為避免管制措施造成自由市場經濟的過度限制,故該法規範指定應在必要的最小限度內為之。

本文為「經濟部產業技術司科技專案成果」

你可能會想參加
※ 敏感科技保護, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8207&no=16&tp=5 (最後瀏覽日:2024/11/23)
引註此篇文章
你可能還會想看
日本制定綠色轉型基本方針草案,規劃未來10年政策藍圖

  在美中對抗、烏俄戰爭等地緣政治背景下,世界各國開始重視供應鏈穩定問題。日本在過去幾次供應危機中,逐漸從以化石能源為中心之產業結構,轉向以綠能為主之產業結構,為讓自身能最大限度地利用脫碳相關技術,並在維持能源穩定供應的同時,強化日本產業競爭力,日本經濟產業省於2022年12月23日公布「實現綠色轉型基本方針(草案)」(GX実現に向けた基本方針),提出未來10年政策藍圖,目前正於全國各地辦理意見交流會,徵集民眾意見。   根據上述方針草案,日本未來將採取之措施包括:(1)透過《能源使用合理化法》(エネルギーの使用の合理化に関する法律)徹底推動節能、製造業結構轉型為碳循環型生產體制,並導入蓄電池和控制系統;(2)再生能源成為主力電源,2030年再生能源占比達到36-38%;(3)2030年核能占比達到20-22%;(4)導入氫能、尿素等新能源,於2025年大阪萬博將進行實驗,並參酌外國實際案例,以安全為前提,制定合理之氫能安全戰略及國際標準;(5)整備電力及瓦斯市場,以確保供應穩定;(6)強化資源外交及國際合作,避免因依賴外國資源而產生斷鏈危機;(7)推動蓄電池產業;(8)促進資源循環;(9)運輸部門綠色轉型,包括下一世代汽車、飛機、船舶、鐵路、人物流等;(10)以脫碳為目的之數位投資;(11)住宅、建築物節能;(12)基礎設施投資;(13)碳捕捉技術;(14)食材、農林水產業轉型等。   除上述措施外,日本亦將運用綠色經濟轉型債券(暫定)及各種金融手段,支援綠色轉型前期投資。相關法案預計於下次國會提出,並於兩年內檢討具體措施。

英國發布「人工智慧:機會與未來決策影響」政策報告,並聚焦人工智慧運用及管理

  英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議: (一)關於人工智慧及應用界定與發展   人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。 (二)未來對社會及政府利益及衝擊   人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。   目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。   在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。 (三)關於相關道德及法律風險管理課題   人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考: (1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。 (2)調適由人工智慧作決策行為時的歸責概念和機制。   有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。   針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。   人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。

新加坡就智慧國家方案提出策略性國家計畫

  新加坡政府科技局(Government Technology Agency of Singapore, 下稱 GovTech)在2017年8月21號提出智慧國家的5個策略性國家計畫,指出為了建立數位國家,政府將會更加注重基礎建設的整合途徑,未來將聚焦5項計畫: 國家數位身分(National Digital Identity)系統,使市民和工商業可以更加安全與便利的方式進行交易。未來的六個月,在現有的SingPass交易系統上, GovTech將會進行關於行動軟體代碼(software-token)試驗,並在五年後大量適用此種服務。 增進數位支付(e-Payments)功能。新加坡金融管理局(Monetary Authority of Singapore, MAS)將會與銀行和私部門合作,建立各種數位支付管道。例如簡化數位支付並布建統一銷售終端(Unified-Point-of-Sales, UPOS),預計將於18個月內設置25000個終端,使多種銷售方式可透過單一終端進行。 智慧國家感測器平台(Smart Nation Sensor Platform),加速感應器與其他物聯網的布建,使城市更加易居住與安全。GovTech將會建立智慧國家感測器平台,並增進基礎建設與分析能力,並與LTA合作目在未來18個月測試智慧聯網路燈站於選定的區域進行布建,五年內讓蒐集之數據提供工商業發展產品與服務供公眾使用。 建立智慧城市移動(Smart Urban Mobility)交通系統,包含已在2017年中建立的共通車隊管理系統(Common Fleet Management System),將使用數據和數位科技,包含AI和自駕車來增進公眾運輸系統。 生活的時刻(Moments of Life)服務,透過政府間數據共享,跨部門和各種政府相關的數位服務結合,提供市民個人化的數位服務。

美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作

美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。

TOP