日本內閣府公開徵集「研究安全和風險管理系統開發支援計畫」,加強研究安全保障
資訊工業策進會科技法律研究所
2025年3月10日
壹、事件摘要
內閣府科學技術創新推進事務局(科学技術・イノベーション推進事務局),於2025年2月19日發布公告,自2025年2月19日至3月24日公開徵集國內負責經濟安全重要技術的補助機關和研究機構加入「研究安全和風險管理系統開發支援計畫」 [1](研究セキュリティ・インテグリティに関するリスクマネジメント体制整備支援事業,下簡稱研究安全計畫),以加強研究安全之保障。
貳、重點說明
日本曾發生研究者在不知情的情形下與北韓研究者共著論文而危害研究安全事件,根據日本經濟新聞2024年11月28日報導,自2016年底北韓受到聯合國加強制裁以來,共有八篇北韓研究機構的國際共著論文發表,包含東京大學、名古屋大學等日本五所大學的研究者皆在共同著作者之列,雖研究者皆表示與北韓無聯繫,但此行為仍可能違反聯合國制裁規定,且一名涉及本事件的研究者在論文發表後,仍被任命為國內主導研究計畫的主持人,負責百億日圓預算及先進技術的管理,顯示日本研究安全管理問題[2]。
為避免類似事件發生及提升日本科技實力,以及配合G7國家關於研究安全與誠信的政策,內閣府公開徵集負責經濟安全重要技術的補助機關和研究機構加入研究安全計畫。該計畫將蒐集與分析國際合作研究所需的公開資訊,並整合後於2025年出版「研究安全與誠信程序手冊」(RS/RI に関する手順書)。
所謂經濟安全重要技術,係指《促進特定重要技術研發及適當運用成果基本指南》(特定重要技術の研究開発の促進及びその成果の適切な活用に関する基本指針)所列,包含AI、生物技術等先進技術領域[3],內閣府將透過此計畫驗證學研機構所實施之研究安全與誠信措施是否得宜,並與學研機構分享典範實務,參考政府制定的研究安全與誠信規範,提出分析與改善方法。
研究安全計畫將支援日本國內研究機構和其他處理對經濟安全重要技術的機關,在國內外開展聯合研究時採取必要的技術外流防止措施,一方面提供分析資源,如協助分析研究人員及研究機構的公開資訊(職業經歷、其他工作以及研究資金流向等),另一方面支援實施風險管理的相關費用,並針對整體防止技術外流的風險控管體系進行評估後給予建議[4]。
研究安全計畫參與對象為補助研發之機關及領取補助進行研究開發的機構(如公立研究機構、研究開發公司、大學等),且應有足夠能力執行完整風險控管計畫。另計畫評選期間,研究機構不得有內閣府所定停止補助、停止推薦等情形[5]。
內閣府為結合國家政策與國際標準,全面提升日本在經濟安全重要技術領域的研究安全與誠信管理能力,透過分析與資金支援,協助研究機構構建完善的風險控管體系,確保研究中的技術外流防範措施得以落實。此舉不僅為日本科技實力的長期發展奠定基石,亦為維護國家經濟安全及國際信譽提供堅實保障。
參、事件評析
近年研究安全成為國際間之重要議題,為防止技術外流,各國亦有許多政策,如美國國家科學基金會(National Science Foundation, NSF)啟動「保護美國研究生態系統社群 」[6](Safeguarding the Entire Community of the U.S. Research Ecosystem, SECURE)計畫,並成立 SECURE 中心;加拿大政府公告「三機構關於敏感技術研究和關注從屬性政策指南」[7](Tri agency guidance on the Policy on Sensitive Technology Research and Affiliations of Concern, STRAC Policy)等,在如此趨勢下,日本亦開始注重研究安全之保障。
日本內閣府此次推動研究安全計畫,顯示日本政府已深刻意識到研究安全議題的迫切性與重要性。隨著全球科技競爭日益激烈,國際間的技術交流與合作頻繁,但也伴隨著技術外流、竊取敏感研究資訊等風險。尤其是北韓等受國際制裁國家,可能透過隱匿身分或間接合作的方式,取得敏感資訊,對國際社會的安全構成潛在威脅。
日本政府推動研究安全計畫,透過提供分析資源、資金支援及風險控管體系的評估建議,協助研究機構建立完善的防範機制,期望透過以上防範機制,全面提升日本在研究安全管理能力,並確保技術外流防範措施得以落實。
然而,此計畫的推動仍存在一些挑戰與考量。首先,如何在確保研究安全與維護學術自由之間取得平衡,避免過度限制造成研究自主性與創新能力的損害,將是重要課題。此外,背景審查與資訊分析機制的建置,需注意個人隱私保護,避免引發研究人員的反彈與抵制。再者,國際合作研究的審查程序若過於繁瑣,也可能影響日本研究機構與國際間的合作意願,甚至對國際學術地位造成負面影響。
因此,日本政府在推動此項政策時,應積極參考美國、加拿大等國的經驗,建立透明且具彈性的管理制度,並與國際夥伴保持密切溝通,協調一致的研究安全標準,避免孤立於國際科研社群之外。綜上所述,日本此次行動對於提升國內研究安全與誠信管理能力,並維護國家經濟安全,具有正面且積極的意義,未來仍需持續關注政策推行的成效與後續調整方向,以達成長期穩健的發展目標。
[1]〈研究セキュリティ・インテグリティに関するリスクマネジメント体制整備支援事業の公募について〉,內閣府,https://www8.cao.go.jp/cstp/kokusaiteki/integrity/kobo_r7.html (最後瀏覽日:2025/3/10)。
[2]日本経済新聞,〈東大など5大学、知らずに北朝鮮と共同研究 「寝耳に水」〉, 20254/11/28,https://www.nikkei.com/article/DGXZQOUE293WI0Z20C24A1000000/ (最後瀏覽日:2025/3/10)。
[3]〈特定重要技術の研究開発の促進及びその成果の適切な活用に関する基本指針〉,內閣府,https://www.cao.go.jp/keizai_anzen_hosho/suishinhou/doc/kihonshishin3.pdf (最後瀏覽日:2025/3/10)。
[4]〈研究セキュリティ・インテグリティに関するリスクマネジメント体制整備支援事業公募要領〉,內閣府,頁3,https://www8.cao.go.jp/cstp/kokusaiteki/integrity/kobo_r7/kobo_r7.pdf (最後瀏覽日:2025/3/10)。
[5]同前註,頁4。
[6]NSF-backed SECURE Center will support research security, international collaboration, US National Science Foundation, https://www.nsf.gov/news/nsf-backed-secure-center-will-support-research (last visited Mar. 10, 2025).
[7]Tri-agency guidance on the Policy on Sensitive Technology Research and Affiliations of Concern (STRAC Policy), Natural Sciences and Engineering Research Council of Canada, https://www.nserc-crsng.gc.ca/InterAgency-Interorganismes/RS-SR/strac-rtsap_eng.asp (last visited Mar. 10, 2025).
本文為「經濟部產業技術司科技專案成果」
歐洲議會通過《人工智慧法案》 朝向全球首部人工智慧監管標準邁進下一步 資訊工業策進會科技法律研究所 2023年06月26日 觀察今年的科技盛事屬ChatGPT討論度最高,將人們從區塊鏈、元宇宙中,帶入人工智慧(AI)領域的新發展。ChatGPT於2022年11月由OpenAI開發的生成式人工智慧,透過深度學習模型,理解和生成自然語言,其功能包含回答各類型問題(如科學、歷史)、生成邏輯結構之文章(如翻譯、新聞標題)、圖形、影像等內容。然而對於人工智慧的發展,究竟如何去處理人機間互動關係,對於風險之管理及相關應用之規範又該如何,或許可從歐盟的法制發展看出端倪。 壹、事件摘要 面對人工智慧的發展及應用,歐盟執委會(European Commission)早在2018年6月成立人工智慧高級專家組(AI HLEG),並於隔年(2019)4月提出「可信賴的人工智慧倫理準則」(Ethics Guidelines for Trustworthy AI),要求人工智慧需遵守人類自主、傷害預防、公平、透明公開等倫理原則。於2021年4月21日歐盟執委會提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(以下稱人工智慧法案),於2023年內部市場委員會(Internal Market Committee)與公民自由委員會(Civil Liberties Committee)通過並交由歐洲議會審議(European Parliament),最終《人工智慧法案》於2023年6月14日通過。後續將再歐盟理事會(Council of the European Union)與辯論協商,尋求具共識的最終文本[1]。 貳、重點說明 由於「歐盟議會通過」不等於「法案通過」,實際上歐盟立法機制不同於我國,以下透過法案內容說明的契機,概述一般情況下歐盟之立法流程: 一、歐盟立法過程 通常情況下,法案由歐盟執委會(下簡稱執委會)提出,送交歐盟理事會及歐洲議會,作為歐盟的「立法者」歐洲理事會(下簡稱理事會)與歐洲議會(下簡稱議會)將針對法案獨立討論並取得各自機關內之共識。大致上立法程序有可分為三階段,在一讀階段若理事會與議會對於執委會版本無修改且通過,則法案通過,若任一機關修改,則會進行到二讀階段。針對法案二讀若仍無法取得共識,則可召開調解委員會(Conciliation)協商,取得共識後進入三讀。簡單來說,法案是否能通過,取決於理事會與議會是否取得共識,並於各自機關內表決通過[2]。 目前《人工智慧法案》仍處於一讀階段,由於法案具備爭議性且人工智慧發展所因應而生之爭議迫在眉睫,議會通過後將與執委會、理事會進入「三方會談」(Trilogue)的非正式會議,期望針對法案內容取得共識。 二、人工智慧法案 (一)規範客體 《人工智慧法案》依風險及危害性程度分級,其中「不可接受風險」因抵觸歐盟基本價值原則禁止(符合公益目標,如重大或特定犯罪調查、防止人身安全遭受危害等例外許可)。「高風險」則為法案規範之重點,除針對系統技術穩健、資料處理及保存訂有規範外,針對人為介入、安全性等也訂定標準。 而針對高風險之範疇,此次議會決議即擴大其適用範圍,將涉及兒童認知、情緒等教育及深度偽造技術(Deepfake)納入高風險系統,並強調應遵循歐盟個人資料保護規範。此外對於社會具有高影響力之系統或社群平臺(法案以4500萬用戶做為判斷基準),由執委會評估是否列為高風險系統。針對目前討論度高的生成式人工智慧(ChatGPT),議會針對法案增訂其系統於訓練及應用目的上,應揭露其為生成式人工智慧所產出之內容或結果,並摘要說明所涉及之智慧財產權[3]。 (二)禁止項目 關於《人工智慧法案》對於高風險系統之要求,從執委會及理事會的觀點來看,原則上重點在於對弱勢的保護及生物資料辨識之權限。歐盟禁止人工智慧系統影響身理及心理,包含對於特定族群如孩童、身心障礙者等弱勢族群之不平等待遇。同時原則禁止即時遠端的生物辨識利用,包含對於人性分析、動作預測等對於人類評價、分類之應用,例外情況如犯罪調查、協尋失蹤兒童、預防恐怖攻擊、關鍵基礎設施破壞等情況時方被允許。此次議會決議提高禁止即時遠端生物辨識的標準,包含納入敏感資訊的蒐集如性別、種族、政治傾向等,及其他臉部辨識、執法、邊境管制、情緒辨識等項目[4]。 參、事件評析 有關《人工智慧法案》雖歐洲議會已一讀通過,然而後續仍要面對與歐盟理事會的協商討論,並取得共識才能規範整個歐盟市場。因此上述規範仍有變數,但仍可推敲出歐盟對於人工智慧(含生成式)的應用規範態度。在面對日新月異的新興科技發展,其立法管制措施也將隨著橫向發展,納入更多種面向並預測其走向趨勢。因人工智慧有應用多元無法一概而論及管制阻礙創新等疑慮,觀察目前國際上仍以政策或指引等文件,宣示人工智慧應用倫理原則或其風險之管理,偏重產業推動與自律。 觀察歐盟《人工智慧法案》之監管目的,似期望透過其市場規模影響國際間對於人工智慧的監管標準。倘若法案後續順利完成協商並取得共識通過,對於如OpenAI等大型人工系統開發商或社群平臺等,若經執委會評估認定為高風險系統,勢必對於未來開發、應用帶來一定衝擊。因此,歐盟對於人工智慧監管的態度及措施實則牽一髮而動全身,仍有持續觀察之必要。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]The AI Act, Future of Life Institute, https://artificialintelligenceact.eu/developments/ (last visited Jun. 20, 2023) [2]The ordinary legislative procedure, Council of European Union, https://www.consilium.europa.eu/en/council-eu/decision-making/ordinary-legislative-procedure/ (last visited Jun. 19, 2023) [3]EU AI Act: first regulation on artificial intelligence, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence (last visited Jun. 21, 2023) [4]MEPs ready to negotiate first-ever rules for safe and transparent AI, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/press-room/20230609IPR96212/meps-ready-to-negotiate-first-ever-rules-for-safe-and-transparent-ai(last visited Jun. 21, 2023)
印度政府發布監管數位市場法案印度政府發布監管數位市場法案 資訊工業策進會科技法律研究所 2024年06月25日 印度數位競爭法委員會(Committee on Digital Competition Law, CDCL)於2024年3月12日發布數位競爭法委員會報告,建議制定單獨法律規範數位市場競爭,同時發布《數位競爭法》草案(Draft Digital Competition Bill,下稱本草案),使印度競爭委員會(Competition Commission of India, CCI,下稱委員會)能夠在反競爭行為發生前介入調查,草案發布後公開徵求公眾意見至2024年5月15日,將參考公眾意見後再行發布本草案後續發展。 壹、緣起 印度企業事務部(Ministry of Corporate Affairs, MCA)於2023年2月6日成立數位競爭法委員會,主要由產業商會、政府機關以及學者組成,目的是檢視現行印度2002年《競爭法》是否足以解決數位經濟成長衍伸的問題。爾後於2024年3月發布數位競爭法委員會報告,數位競爭法委員會認為應有新的事前管制補充現行競爭法的事後管制模式,在動態的數位市場中於必要時進行事前干預,防止反競爭行為發生。 在數位競爭法委員會報告[1]中提出9項反競爭行為態樣,包含反導向(Anti-steering)、自我偏好(Self preferencing)、綑綁及搭售(Bundling and tying)、非公開資訊使用(use of non-public data)、掠奪性定價(Predatory pricing)、排他性協議(Exclusive tie-ups)、搜尋及排名偏好(Search and ranking preferencing)、限制第三方應用程式(Restricting third party applications)、以及廣告市場整合(Advertising consolidation)等,將以上述反競爭行為為核心制定事前管制措施。 貳、本草案介紹 基於上述建立事前管制的報告結論,數位競爭法委員會連同報告一併提出本草案以回應反競爭行為的事前管制方向,本草案主要有四項重點以下整理。 一、適用範圍與對象 本草案適用於所有在印度境內提供核心數位服務的所有企業,包含延伸到印度境外且對本草案所規定義務有影響的行為,核心數位服務包含線上搜尋引擎、線上社交網路服務、影片分享平台服務、人際通訊服務、作業系統、網路瀏覽器、雲端服務、廣告服務、以及線上中介服務等。 二、對具有系統重要性數位企業之定義 具有系統重要性數位企業(Systemically Significant Digital Enterprise, SSDE,下稱重要企業)需要符合兩項標準,分別是財務標準及用戶標準,如果企業屬於集團則數值以集團整體計算: (一)財務標準 財務標準是在三個財政年度中達成以下任一項: 1. 印度境內營業額高於400億印度盧比; 2. 全球營業額高於300億美元; 3. 印度的商品總價值高於1600億印度盧比; 4. 全球市值高於750億美元。 (二)用戶標準 用戶標準是在三個財政年度中達成以下任一項: 1. 在印度提供的核心數位服務達到1000萬終端用戶; 2. 在印度提供的核心數位服務達到1萬企業用戶。 三、對重要企業及關係企業之指定 (一)符合條件企業之通報義務 當企業的核心數位服務達到前述雙門檻後90天內應通知委員會,如該企業有所屬集團應一併向委員會揭露該所屬集團有直接或間接參與該核心數位服務的其他企業,委員會得透過行政命令指定該企業為重要企業,有直接或間接參與的其他企業得指定為關聯數位企業(Associate Digital Enterprise, ADE)。 委員會可要求未主動提供相關資訊的企業提供必要資訊,如符合上述門檻則指定為重要企業。 委員會在確定企業符合雙門檻後應通知企業給予陳述意見機會,說明不符合系統重要性之理由。企業若未提供必要資訊或提供不完整或錯誤資訊,仍得在聽取企業意見後指定,企業不得有規避指定之行為。 (二)指定未達門檻企業之權力 除指定前述符合雙門檻之企業外,對於在核心數位服務領域有重要影響力但未符合雙門檻的企業,委員會得參酌企業營業額、企業規模與資源、企業市場力量、網路效應、市場結構、社會義務等要素直接指定,效期為三年。 四、重要企業之義務 重要企業被指定後應建立透明有效的投訴處理及法遵機制,並定期向委員會報告履行下列義務與相關規定所採取之措施。 (一)禁止反競爭行為義務 不得有自我偏好、限制第三方應用程式使用、反導向、搭售或綑綁等反競爭行為,並以公平和透明交易的態度與用戶合作。 (二)資訊使用義務 不得使用企業用戶的非公開資訊與之競爭,且不得未經用戶同意混合或交叉使用,或允許第三方使用不同服務所蒐集的用戶資訊,並實現資訊可攜性。 參、本草案評析 數位競爭委員會報告及本草案的發布宣示委員會將監管大型科技公司的反競爭行為,本草案參考了歐盟數位市場法(Digital Markets Act, DMA)對於守門人(gatekeepers)的規定及義務,對於重要企業賦予禁止反競爭行為的義務,雖然本草案仍在意見蒐集階段,是否施行仍須追蹤觀察。 本草案參考DMA規定監管大型科技公司代表印度政府認為數位市場的事前管制是必要的,擔心市場失靈的風險存在,但包含資訊科技與創新基金會[2](Information Technology and Innovation Foundation, ITIF)、市場真相[3](Truth on the Market)、網路自由基金會[4](Internet Freedom Foundation)等單位對於本草案都提出質疑,認為本草案會阻礙數位市場創新,且印度的數位市場尚未成熟,貿然實施會損害印度的數位競爭力,阻礙對印度的數位投資。 40家印度新創公司發表聲明[5]支持本草案的推動,認為事前管制可以遏止Big Tech的反競爭行為,解決新創公司所擔心的發展問題,為新創環境提供空間。同時新創公司擔心門檻過低,阻礙非重要企業的發展,應提高門檻針對佔據主導地位的企業。 我國的數位市場政策仍有立法空間,該傾向管制市場或是鼓勵創新投資需要考量我國數位市場成熟度、規模、影響力等要素,印度已經跨出數位市場治理第一步,我國應持續追蹤各國法制政策,以滾動調整、擬定適合我國的數位市場政策。 [1] MINISTRY OF CORPORATE AFFAIRS, Report of the Committee on Digital Competition Law 27 (2024). [2] Comments to the Indian Ministry of Corporate Affairs Regarding Digital Competition Law, INFORMATION TECHNOLOGY & INNOVATION FOUNDATION, https://itif.org/publications/2024/05/15/comments-to-the-indian-ministry-of-corporate-affairs-regarding-digital-competition-law/ (last visited June 25, 2024). [3] India Should Question Europe’s Digital-Regulation Strategy, Truth on the Market, https://truthonthemarket.com/2024/04/12/india-should-question-europes-digital-regulation-strategy/?_gl=1*1mrmph7*_ga*MTI0MTU5NTkwMS4xNzE4MzM2OTUz*_ga_R1FRMJTK15*MTcxODMzNjk1Mi4xLjAuMTcxODMzNjk2MS4wLjAuMA. (last visited June 25, 2024). [4] Summary of IFF’s submission on the draft Digital Competition Bill, Internet Freedom Foundation, https://internetfreedom.in/iffs-submission-on-the-digital-competition-bill/ (last visited June 25, 2024). [5] 40 Indian Startups urge MCA to move forward with Digital Competition Bill; 'not give in to delaying tactics by Big Tech', STORYBOARD18, May 16, 2024, https://www.storyboard18.com/digital/40-indian-startups-urge-mca-to-move-forward-with-digital-competition-bill-not-give-in-to-delaying-tactics-by-big-tech-31771.htm (last visited June 25, 2024).
歐盟執委會提出「歐洲資料戰略」建立單一資料市場歐盟執委會(European Commission)於2020年2月19日提出「歐洲資料戰略」(the European data strategy),其將建立單一資料市場(single data market)。針對少數大型科技公司(big tech)往往透過定位、社群網路等服務,掌控全球大量資料,且嚴重阻礙由資料驅動之商業型態(data-driven business)的發展與創新,透過建立單一資料市場,開放未使用的資料,使資料可於歐盟內部及跨部門自由流動,以對抗美國大型科技公司,例如:Facebook、Google或Amazon等資料壟斷之情況,確保市場開放和公平。 依據文件內容,歐洲資料戰略主要目標在於,善用歐盟巨量產業資料和創新科技,建立一個公平的歐盟資料空間,鼓勵資料共享,並建議制定資料監管規則。歐盟相關措施包含公布更多地理空間、環境、氣象學等公共資料(public data);免費提供企業街區資料;針對阻礙資料分享之規範訂定競爭法;提供新跨境資料使用和整合規範;針對製造、氣候變遷、自動產業、健康照護、金融服務、農業、能源等提供相關標準;廢除阻礙資料共享的相關規則,避免線上平臺對資料限制利用或獲利顯失公平之情況。歐盟執委會預計於2020年底提出數位服務法(Digital Services Act),提供企業於單一市場營運更清楚規則,強化數位平臺責任和保護基本權利。
EDPS發布「評估限制隱私權和個人資料保護基本權利措施之比例指引」歐盟資料保護監督機關(European Data Protection Supervisor, EDPS)於2019年12月19日發布「評估限制隱私權和個人資料保護基本權利措施之比例指引」(EDPS Guidelines on assessing the proportionality of measures that limit the fundamental rights to privacy and to the protection of personal data),旨在協助決策者更易於進行隱私友善(privacy-friendly)之決策,評估其所擬議之措施是否符合「歐盟基本權利憲章」(Charter of Fundamental Rights of the European Union)關於隱私權和個人資料之保護。 該指引分為三大部分,首先說明指引的目的與如何使用;第二部分為法律說明,依據歐盟基本權利憲章第8條所保護個人資料的基本權利,並非絕對之權利,得於符合憲章第52條(1)之規定下加以限制,因此涉及處理個人資料的任何擬議措施,應進行比例檢驗;指引的第三部份則具體說明決策者應如何評估擬議措施之必要性和比例性之兩階段檢驗: 必要性檢驗(necessity test) (1) 步驟1:初步對於擬議措施與目的為詳細的事實描述(detailed factual description)。 (2) 步驟2:確定擬議措施是否限制隱私保護或其他權利。 (3) 步驟3:定義擬議措施之目的(objective of the measure),評估其必要性。 (4) 步驟4:特定領域的必要性測試,尤其是該措施應有效(effective)且侵害最小(the least intrusive)。 若前述評估認為符合必要性,則接續比例性檢驗,透過以下4步驟評估: 比例性檢驗(proportionality test) (1) 步驟1:評估目的正當性(legitimacy),擬議措施是否滿足並達到該目的。 (2) 步驟2:擬議措施對隱私和資料保護基本權的範圍、程度與強度(scope, extent and intensity)之影響評估。 (3) 步驟3:繼續進行擬議措施之公平對等評估(fair balance evaluation)。 (4) 步驟4:分析有關擬議措施比例之結果。 科技時代的決策者在立法和政策擬定時,面臨的問題愈趨複雜,需要全面性評估,擬議措施限制應符合歐盟法規,且具必要性並合於比例,隱私保護更是關鍵,參酌該指引搭配EDPS於2017年發布之「必要性工具包」(Necessity Toolkit),將使決策者所做出的決策充分保護基本權利。