為加強歐盟及各成員國的研究基礎設施合作,從發展政策方面,於2002年成立「歐洲研究基礎設施策略論壇」(European Strategy Forum on Research Infrastructures, ESFRI)協助各會員國統籌規劃RIs(Research Infrastructures, RIs)的發展藍圖。在法律層面,於2009年通過「第723/2009號歐盟研究基礎設施聯盟法律架構規則」(COUNCIL REGULATION (EU) No 723/2009 of 25 June 2009 on the Community legal framework for European Research Infrastructure Consortium (ERIC),使各歐盟會員國、夥伴國家、非夥伴國家之第三國家或跨政府國際組織等對於分散的RIs整合起來後,可向歐盟執委會提出申請,依該號規則取得法律人格,成立「歐盟研究基礎設施聯盟」(European Research Infrastructure Consortium, ERIC),且可為權利得喪變更之主體,更可與他方簽訂契約或成為訴訟當事人,使其具有自我經營管理之能力。
截至目前為止(2015年9月),歐盟的RIs正式成立11個ERIC,並且透過國際間合作將RIs做更有效率之使用。國際上近年來創新研發競爭激烈,歐盟執委會為了持續推動建置世界級歐洲研究區域(European Research Area, ERA),無論在資金面、政策面及法律層面均有積極作為,在強化歐盟RIs同時促進國際科技研發合作,俾使歐盟於研發創新的領域保持世界領導之地位,歐盟未來仍會持續推動各個重要研發領域的ERIC,ERIC對於整合歐盟各國重大RIs負有重要使命。
本文為「經濟部產業技術司科技專案成果」
日本政府怎樣對公部門管制DeepSeek? 資訊工業策進會科技法律研究所 2025年07月07日 2025年2月3日,日本個人情報保護委員會(Personal Information Protection Commission,簡稱PPC)發布新聞稿指出[1],DeepSeek所蒐集的資料,將會儲存在中國的伺服器裡,且為中國《國家情報法》的適用對象[2]。這可能將導致個人資料遭到中國政府調用或未經授權的存取。作為中國開發的生成式AI,DeepSeek雖以優異的文本能力迅速崛起,卻也引發資安疑慮。 身處地緣政治敏感區的日本對此高度警覺,成為率先提出警告的國家之一。台灣與日本面臨相似風險,因此日本的應對措施值得借鏡。本文將從PPC新聞稿出發,探討日本如何規範公部門使用DeepSeek。 壹、事件摘要 DeepSeek作為中國快速崛起之生成式AI服務,其使用範圍已快速在全球蔓延。然而,日本PPC發現該公司所公布之隱私政策,內容說明其所蒐集之資料將存儲於中國伺服器內,並依據中國《國家情報法》之適用範圍可能遭到中國政府調用或未經授權之存取。 日本PPC因而於2025年2月3日發布新聞稿,隨後日本數位廳於2月6日發函給各中央省廳,強調在尚未完成風險評估與資安審查之前,政府機關不應以任何形式將敏感資訊輸入DeepSeek,並建議所有業務使用應先諮詢內閣資安中心(内閣サイバーセキュリティセンター,NISC)與數位廳(デジタル庁)意見,才能判定可否導入該類工具[3]。數位大臣平將明亦在記者會中強調:「即使不是處理非機密資料,各機關也應充分考量風險,判斷是否可以使用。」(要機密情報を扱わない場合も、各省庁等でリスクを十分踏まえ、利用の可否を判断する)[4]。 本次事件成為日本對於生成式AI工具採取行政限制措施的首次案例,也引發公私部門對資料主權與跨境平台風險的新一輪討論。 貳、重點說明 一、日本對於人工智慧的治理模式 日本在人工智慧治理方面採取的是所謂的「軟法」(soft law)策略,也就是不依賴單一、強制性的法律來規範,而是以彈性、分散的方式,根據AI的實際應用場景與潛在風險,由相關機關分別負責,或透過部門之間協作因應。因此,針對DeepSeek的管理行動也不是由某一個政府部門單獨推動,而是透過跨部會協作完成的綜合性管控,例如: (一)PPC的警示性通知:PPC公開說明DeepSeek儲存架構與中國法規交錯風險,提醒政府機關與公務人員謹慎使用,避免洩漏資料。 (二)數位廳的行政指引:2025年2月6日,日本數位廳針對生成式AI的業務應用發布通知,明列三項原則:禁止涉密資料輸入、限制使用未明確審查之外部生成工具、導入前應諮詢資安機構。 (三)政策溝通與政治聲明:平將明大臣在記者會上多次強調DeepSeek雖未明列於法條中禁用,但其高風險屬性應視同「潛在危害工具」,需列入高敏感度審查項目。 二、日本的漸進式預防原則 對於DeepSeek的管制措施並未升高至法律層級,日本政府亦沒有一概禁止DeepSeek的使用,而是交由各機關獨自判斷[5]。這反映出了日本在AI治理上的「漸進式預防原則」:先以行政指引建構紅線,再視實際風險與民間回饋考慮是否立法禁用。這樣的作法既保留彈性,又讓官僚系統有所依循,避免「先開放、後收緊」所帶來的信任危機。 三、日本跟循國際趨勢 隨著生成式AI技術迅速普及,其影響已不再侷限於產業應用與商業創新,而是逐漸牽動國家資安、個資保護以及國際政治秩序。特別是生成式AI在資料存取、模型訓練來源及跨境資料流通上的高度不透明,使其成為國家安全與數位主權的新興挑戰。在這樣的背景下,各國對生成式AI工具的風險管理,也從原先聚焦於產業自律與技術規範,提升至涉及國安與外交戰略層面。 日本所採取的標準與國際趨勢相仿。例如韓國行政安全部與教育部也在同時宣布限制DeepSeek使用,歐盟、美國、澳洲等國亦有不同程度的封鎖、審查或政策勸導。日本雖然和美國皆採取「軟法」(soft law)的治理策略,然而,相較於美國以技術封鎖為主,日本因其地緣政治的考量,對於中國的生成式AI採取明確防範的態度,這一點與韓國近期禁止政府機構與學校使用中國AI工具、澳洲政府全面禁止政府設備安裝特定中國應用程式類似。 參、事件評析 這次日本政府對於DeepSeek的應對措施,反映出科技治理中的「資料主權問題」(data sovereignty):即一個國家是否有能力控制、保存與使用其管轄範圍內所生產的資料。尤其在跨境資料傳輸的背景下,一個國家是否能保障其資料不被外國企業或政府擅自使用、存取或監控,是資料主權的核心問題。 生成式AI不同於傳統AI,其運作依賴大規模訓練資料與即時伺服器連接,因此資料在輸入的瞬間可能已被收錄、轉存甚至交付第三方。日本因而對生成式AI建立「安全門檻」,要求跨境工具若未經審核,即不得進入政府資料處理流程。這樣的應對策略預示了未來國際數位政治的發展趨勢:生成式AI不只是科技商品,它已成為跨國治理與地緣競爭的核心工具。 中國通過的《國家情報法》賦予政府調閱私人企業資料的權力,使得中國境內所開發的生成式AI,儼然成為一種資訊戰略利器。若中國政府藉由DeepSeek滲透他國公部門,這將對國家安全構成潛在威脅。在此背景下,日本對公部門使用DeepSeek的管制,可被解讀為一種「數位防衛行為」,象徵著日本在數位主權議題上的前哨部署。 值得注意的是,日本在處理DeepSeek事件時,採取了「不立法限制、但公開警示」的方式來應對科技風險。此舉既避免激烈封鎖引發爭議,又對於資料的運用設下邊界。由於法令規範之制定曠日費時,為避免立法前可能產生之風險,日本先以軟性之限制與推廣手段以防止危害擴大。 台灣雖與日本同處地緣政治的敏感地帶,資料主權議題對社會影響深遠,為使我國可在尚未有立法規範之狀態下,參考日本所採之行政命令內控與公開說明外宣雙向並行之策略,對台灣或許是一種可行的借鏡模式。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]個人情報保護委員会,DeepSeekに関する情報提供,https://www.ppc.go.jp/news/careful_information/250203_alert_deepseek/ (最後瀏覽日:2025/05/06)。 [2]《中华人民共和国国家情报法》第7条第1项:「任何组织和公民都应当依法支持、协助和配合国家情报工作,保守所知悉的国家情报工作秘密。」 [3]デジタル社会推進会議幹事会事務局,DeepSeek等の生成AIの業務利用に関する注意喚起(事務連絡),https://www.digital.go.jp/assets/contents/node/basic_page/field_ref_resources/d2a5bbd2-ae8f-450c-adaa-33979181d26a/e7bfeba7/20250206_councils_social-promotion-executive_outline_01.pdf (最後瀏覽日:2025/05/06)。 [4]デジタル庁,平大臣記者会見(令和7年2月7日),https://www.digital.go.jp/speech/minister-250207-01 (最後瀏覽日:2025/05/06)。 [5]Plus Web3 media,日本政府、ディープシークを一律禁止せず 「各機関が可否を判断する」,https://plus-web3.com/media/500ds/?utm_source=chatgpt.com (最後瀏覽日:2025/05/06)。
歐盟通過《外國補貼規則》並於2023年1月正式生效2023年1月12日,歐盟《外國補貼規則》(Foreign Subsidies Regulation, FSR)正式生效。其旨為歐盟欲有效打擊因領有外國補貼而具不公平競爭優勢之企業,以保護歐盟市場公平競爭。 2021年5月5日,歐盟執委會(European Commission)提出《外國補貼規則》草案以防範上述企業在歐盟市場進行危害競爭之行為。該規則於2022年11月分別經歐洲議會(European Parliament)與歐盟理事會(European Council)通過後,同年12月23日刊載於歐盟官方公報,並於2023年1月正式生效。 歐盟執委會於2023年2月6日公布《外國補貼規則》執行細則草案,詳細規範踐行企業併購及參與公共採購程序通知義務所應提交之資訊、調查期程及受調查企業之權利等。根據新規,執委會可調查非歐盟國家之企業財務補助(financial contribution)情形,就調查結果決定是否限制其在歐盟市場從事企業併購、參與公共採購以及其他可能影響市場競爭之經濟活動。 若併購一方的歐盟營業額達5億歐元(€500 million),且外國注資達5,000萬歐元(€50 million),相關企業須向歐盟執委會報告。另外,執委會有權解除未履行通知義務但已執行之交易。而公共採購標案方面,標案金額預估達2.5億歐元(€250 million),且參與投標之企業受外國補貼達400萬歐元(€4 million),該企業即應通知執委會,執委會得禁止接受補貼之企業或違規者得標。 歐盟執委會將考量利害關係人意見回饋後預計自2023年7月12日起實施,而部分通知義務將自同年10月12日起實施。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
日本於「再興戰略2016」中公布今後醫療等領域徹底ICT化之相關政策日本政府於2016年6月2日經內閣議決「再興戰略2016」,為提升國民健康、提高平均壽命,以「世界最先進的健康國家」大篇幅宣布未來政策。其中,在「醫療、長照等領域徹底ICT化」方面之具體新措施如下: (1)醫療等領域中導入ID制度 日本厚生勞動省於2015年11月18日召開第10次「醫療等領域利用識別號碼制度之研究會」(医療等分野における番号制度の活用等に関する研究会),並於次月公布相關研究報告書,其內容包含導入「醫療保險線上資格審查」以及「醫療ID制度」,上述制度預計自2018年開始階段性運用,並於2020年正式實施,因此,本年度工作目標設定為,著手勾勒具體之應用系統機制,並針對實務面相關議題進行討論,自明年開始落實系統開發,整體而言,日本現階段最重要的目標就是促使醫療領域徹底數位化及標準化。 (2)透過巨量資料之利用,增進相關領域之創新 「次世代醫療ICT基礎設施協議會」(次世代医療ICT基盤協議会策定)將延續2016年3月由其所策定之「醫療領域資料利用計畫」(「医療等分野データ利活用プログラム」,意即加強各資料庫(例如醫療資訊資料庫MID-NET)之交流並擴大相關應用。 此外,在現行法規範下,為達成促進醫療領域資訊利用、醫藥相關研發之目標,應成立「代理機關(暫稱)」,以便於擴大收集醫療、檢驗等數據資料,並妥善管理與去識別化,日本政府於「再興戰略2016」中將此機關之設置列為次世代醫療ICT基礎設施協議會之重要工作項目,期望透過協議會對相關制度之討論,能在明年訂定出具體的法律措施。 (3)個人醫療和健康資訊之綜合利用 日本政府期望透過不同終端設備收集關於醫療、健康等資料,並鼓勵民間依此開發新市場,但在此之前,政府必須先行建構一個能良性發展的環境。首先,為實現針對個人需求量身打造的「個別化健康服務」,保險業者、握有病歷的機構、健檢中心及可穿戴式終端設備等,得經當事人同意後收集、分析其日常健康資訊,該「個別化健康服務」之實證計畫將於本年度啟動,由地區中小企業開始。 為強化醫療保險業者去整合運用相關資源並應用於預防、健康醫學上,政府機關應訂定一些獎勵措施,鼓勵業者將ICT技術活用於預防、健康醫學領域上。 此外,今年度「次世代醫療ICT基礎設施協議會」還有一項重要的工作項目,即建立可記錄患者所有就醫過程資訊之系統(Peronal Health Recaord,簡稱PHR),讓相關醫療資料得以流通運用。同時,日本政府希望能在2018年達成「地區性醫療情報聯結網路」,並普及到全國各地,這麼做的目的在於,過往因為醫療資訊不流通,以及重症照護上的斷層,使身心障礙者往往難以離開長期利用的醫療環境,新政策希望讓這些患者無論遷居何處,在全國各地皆能安心接受醫療服務,而不受限於地區限制。
歐盟第29條工作小組發布「自動化個人決策和分析指引」處理個人資料自動化決策與資料剖析風險問題歐盟第29條工作小組於2017年10月3日為因應歐盟一般資料保護規則(GDPR)第22條規定發布「自動化個人決策和分析指引」(Guidelines on Automated individual decision-making and Profiling for the purposes of Regulation 2016/679,2018年2月6日進一步修正,下稱指引),處理對個人資料自動化決策(automated decision-making)和個人檔案剖析(Profiling)的建立。 指引分為五個部分與最佳實踐建議,旨在幫助資料控制者(controller)合乎GDPR對個人資料自動化決策和分析的要求,內容包括下幾點:1.定義自動化決策和分析,以及GDPR對這些概念的處理方法;2.對GDPR第22條中關於自動化決策的具體規定;3.對自動決策和分析的一般規定;4.兒童和個人檔案剖析(Profiling)的建立;5.資料保護影響評估。 指引的主要內容包括: 個人檔案剖析(Profiling),意謂收集關於個人(或一群個人)的資料,並分析他們的特徵或行為模式,加以分類或分群,放入特定的類別或組中,和/或進行預測或評估(例如,他們執行任務的能力,興趣或可能的行為)。 禁止對個人資料完全自動化決策,包括有法律上法或相類重大影響的檔案剖析,但規則也有例外。應有措施保障資料主體的權利,自由和合法利益。 GDPR第22條第二項a之例外規定,(履行契約所必需的),自動化個人決策時,應該作狹義解釋。資料控制者必須能夠提出分析、自動化個人決策的必要性,同時考慮是否可以採取侵害隱私較少之方法。 工作小組澄清,關於在要求提供有關自動化決策所涉及的邏輯上有意義的資料時,控制者應以簡單的方法,告訴資料主體其背後的理由或依據的標準,而不得總是以自動化決策所使用算法進行複雜的解釋或者公開完整的算法為之。所提供的資料應該對資料當事人有意義。 對資料主體提供關於處理自動化決策上有關重要性和預期後果的資料,其意義在於必須提供關於該資料之用途或資料未來處理以及自動化決策如何影響資料主體的重要訊息。例如,在信用評等的情況下,應有權知道其資料處理的基礎,資料主體並能對其作出正確與否的決定,而不僅僅是關於決策本身的資料。 「法律效果」是指對某人的法律權利有影響,或者影響到個人法律關係或者其契約上權利。 工作組並未將GDPR前言71段視為絕對禁止純粹與兒童有關的自動決定,指出僅在某些情況下才有其適用(例如,保護兒童的福利)。 在基於自動化處理(包括分析)以及基於哪些決策產生法律效應或類似顯著效果的基礎上對個人方面進行系統和廣泛評估的情況下,進行資料保護影響評估並不局限於「單獨」自動化處理/決定。