敏感科技保護

  「敏感科技」的普遍定義,係指若流出境外,將損害特定國家之安全或其整體經濟競爭優勢,具關鍵性或敏感性的高科技研發成果或資料,在部分法制政策與公眾論述中,亦被稱為關鍵技術或核心科技等。基此,保護敏感科技、避免相關資訊洩漏於國外的制度性目的,在於藉由維持關鍵技術帶來的科技優勢,保護持有該項科技之國家的國家安全與整體經濟競爭力。

  各國立法例針對敏感科技建立的技術保護制度框架,多採分散型立法的模式,亦即,保護敏感科技不致外流的管制規範,分別存在於數個不同領域的法律或行政命令當中。這些法令基本上可區分成五個類型,分別為國家機密保護,貨物(技術)之出口管制、外國投資審查機制、政府資助研發成果保護措施、以及營業秘密保護法制,而我國法亦是採取這種立法架構。目前世界主要先進國家當中,有針對敏感科技保護議題設立專法者,則屬韓國的「防止產業技術外流及產業技術保護法」,由產業技術保護委員會作為主管機關,依法指定「國家核心科技」,但為避免管制措施造成自由市場經濟的過度限制,故該法規範指定應在必要的最小限度內為之。

本文為「經濟部產業技術司科技專案成果」

※ 敏感科技保護, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8207&no=57&tp=5 (最後瀏覽日:2026/03/30)
引註此篇文章
你可能還會想看
美國FDA發布於海內外應對2019年新型冠狀病毒之行動聲明

  美國食品及藥物管理局(Food and Drug Administration, FDA)於2020年2月14日,發布於海內外應對2019年新型冠狀病毒之行動聲明,其包括: 主動監控供應鏈:由於疫情可能影響醫療產品供應鏈,FDA已與數百家藥品與醫療器材製造商保持聯繫,並與歐洲藥品管理局等全球監管機構保持同步,以評估監控潛在之製造中斷的警訊,且與生物製劑製造商聯繫,以評估有關原料之供應問題。若FDA確定醫療產品可能會短缺,則可能會採取與製造商緊密合作、加快對替代供應之審查等措施來防止短缺。 針對海外生產之FDA產品合規性之查驗與監控:FDA採取基於風險之模型來確認要進行查驗之公司,基於某些特定條件,會被認為具有較高風險之場所會被優先查驗,這些條件包括固有之產品風險、患者接觸產品之程度、過去查驗之歷史紀錄等等。除了查驗之外,其他防止不符FDA標準之產品進入美國市場之工具包括進口警示、增加進口採樣與篩查、替代查驗之紀錄要求(requesting records)。FDA可對市場上不合法之產品或違法之公司或個人採取監管與強制措施,例如警告信、扣押或禁制令。 消費品安全:美國海關暨邊境保護局將輸入美國、受FDA監管之產品交由FDA審查,其必須遵守與美國國內產品相同之標準,在FDA決定其可接受性之前不得將其分銷至美國。FDA並成立跨機關之專案小組,密切監控聲稱可預防、治療或治癒新型冠狀病毒疾病之詐欺性產品和虛假產品,並採取可能之執法行動。 對於診斷、治療與預防疾病之努力:FDA致力於促進安全有效之醫療對策的發展,提供法規建議、指導和技術援助,以促進針對用於此病毒之疫苗、治療和診斷測試之開發和可用性。FDA已核發緊急使用授權(Emergency Use Authorization, EUA),以便立即使用由美國疾病管制與預防中心所開發之診斷試劑,並已制定用於檢測病毒之EUA審查範本,其中概述申請EUA前所需之資料要求,目前已提供給表示有興趣開發該病毒之診斷工具之多位開發者。 後續行動:FDA將密切監視疫情並與跨部門合作夥伴、國際合作夥伴、醫療產品開發商與製造商合作,以幫助推進針對病毒之應對措施。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

英國「創新持續貸款」

  英國創新局(Innovate UK)於2020年11月8日公布「創新持續貸款」(Innovation Continuity Loans)申請指南,作為COVID-19疫情應對計畫的工作項目之一,英國創新局將提供2.1億英鎊的貸款予在疫情影響下持續進行創新活動之國內中小企業。本貸款目標對象為因疫情導致出現資金缺口的中小企業,每一間公司將可申請25萬至160萬英鎊不等之創新持續貸款。   「創新持續貸款」源自2017年的創新貸款實驗計畫(Innovation loans pilot),藉由七項創新競賽篩選出約100位申請人,提供總額約7500萬英鎊的創新貸款;此次創新持續貸款則不採競賽方式,而是針對受疫情影響的中小企業創新活動,透過審查機制提供貸款予申請人。申請人資格為正在執行受創新局補助之創新活動者、過去36個月曾受創新局補助而目前正在進行其他創新活動者或是過去36個月並未獲得創新局補助之創新活動的執行、完成或延續性工作者,且確實因COVID-19疫情影響出現資金短缺之中小企業,即可向創新局申請創新持續貸款。   創新局將藉由審查申請者提交至今的工作成果與品質、受疫情影響程度與資金需求情形,評估該創新活動的後續發展潛力,向合格的申請人提供年利息僅3.7%的創新持續貸款。合格的申請人能在2022年3月31日或約定日期前,直到產品首次商業銷售為止,分階段領取貸款,以年利率3.7%計息;產品首次商業銷售後可額外有兩年的寬限期,在產品首次商業銷售或寬限期結束後五年內,申請人必須償還貸款,未償還部分則改採年利率7.4%計息。藉由低利貸款的資金挹注,協助從事新創活動之英國中小企業得以紓困以度過疫情難關。

美國國家標準暨技術研究院發布「人工智慧風險管理框架:生成式AI概況」

  美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。   為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。

TOP