中國大陸專利局與中國人民財產保險股份有限公司於2014年7月21日在北京簽署「知識產權保險戰略合作協議」,雙方將合作促進專利保險之發展。所謂專利保險係指在專利研發、專利申請、實施、讓與、使用或專利訴訟中,由於發生專利侵權的行為而提供的保險服務。然而,此次協議更包括專利保險政策擬定與政策環境營造、承保理賠流程之改善,並且試圖強化專利風險的宣導以提升企業管理專利風險的意識,最終目標是建立專利保險風險控制及分散機制。 相對於我國高科技產業於引進專利保險在分散專利風險上有正面的參考價值,但由於現行客觀環境下的條件較不完備,使得我國在推行專利保險上窒礙難行,主要原因在於法律制度的不同所產生的專利風險程度有異、無法準確計算保險標的鑑價制度等,但專利保險的概念早在1994年美國即已推出,又伴隨智慧財產權意識的高漲,各國也相繼推行,例如:英國推出的「專利申請保險」,以及日本推出的「知識產權授權金保險」等。因此,此次中國大陸亦擴大推行專利保險之政策,可謂與國際發展趨勢與整體智財法制建制有關,可供我國未來引進專利保險制度上試行之參考與討論。
英國設立綠色財政委員會,檢討未來稅制綠化的方向英國為了達到稅制綠化的目標,特別在2007年底設置了一個集合產官學背景人員及消費者與環保組織代表組成的稅制檢討委員會-綠色財政委員會(Green Fiscal Commission, GFC)。GFC定位為獨立的組織,其任務是在未來的一年半期間,針對英國如要導入綠色稅與環境稅的稅制變革(green taxes and environmental tax reform, ETR),檢視完成其所涉及的相關議題,特別是導入困難之處何在,以期將過往對財貨“good“(例如勞動活動所產生的所得或收入)課稅的精神,規劃轉向為對環境有害的結果“bad“(如環境損害)予以課稅,GFC預計在2009年4月提出正式的報告,而報告探討的重點將會集中在以下三大部分: - 有關環境稅如何執行與操作之資訊與證據 - 有關社會大眾與利害關係人對於環境稅所持態度之資訊與證據 - 針對研究報告內容對外進行適當的溝通 英國欲進行綠色稅制改革,主要是基於歲收中和(revenue neutral)的考量,意指對財貨的租稅減免(tax cuts on ‘goods’)短缺,應透過對有害活動課稅所增加的稅收,予以平衡。英國政府希望可以藉由GFC的研究成果,成果進行綠色稅制改革,讓英國的稅收來源在2020年可以達到至少有20%是源自於綠色稅。
機器人產品監管法制研析機器人產品監管法制研析 資訊工業策進會科技法律研究所 2021年03月25日 台灣為全球ICT產品主要生產國之一,在產業鏈占有一席之地,有關機器人本體製造、國外產品、零組件、系統應用代工或代理商已超過百家,由機器人產品帶動之經濟效益預計將影響製造業整體產值,從而在安全標準、使用規範及責任歸屬上,有必要釐清現行法律規範,並同時審酌如何與國際規範接軌,而有需要進一步規範之處。 機器人依據其使用目的之不同,就現有之機器人產品分類而言,大致可分為「工業型機器人」(Industrial Robots)及「服務型機器人」(Service Robots)兩種。兩者之區分方式通常以國際機器人聯合會(International Federation of Robotics, IFR)之定義為主。「工業型機器人」在各種危險、需大量勞力或精密的工廠,皆可使用產業機器人取代人類,目前主要應用於汽車、面板、晶圓等各種製造業廠房;「服務型機器人」範圍較廣,具有移動性、無限制、多樣性等特性,有別於工業機器人侷限於工廠內使用,服務型機器人種類多樣,應用範圍廣泛,且需具備對環境的感測、辨識能力,以自行決定行動的智慧化功能。而另一面也逐漸受到國際間討論的,是智慧機器人(機器人具有接近強人工智慧的機能[1])相關之倫理、責任歸屬及損害賠償配套措施,而這部分所觀察之法律議題與上述既有之機器人產品之法規發展方向略有不同,因此本研析也將討論相關規範及國際關注焦點[2]。 壹、事件摘要 我國在機器人產品監管法規上仍依循傳統產品標準檢驗之路徑,且相關規範以工業機器人為主,為避免我國廠商因其他國家之產品監管法規之差異而阻礙其貿易流通,機器人產品監管架構實有必要與國際同步,並確保監管程序及標準能與技術發展保持一致。標準與規則的建立是促成機器人領域發展的重要因素,其中歐盟對於機器人標準化之發展在全球扮演關鍵之角色,而歐洲為我國貿易之重要市場,且其產品之CE認證屬於強制性產品檢驗,而於中國、美國採自願性認證(未經認證仍可銷售)有所不同。 故本研究首就商品檢驗、資料保護、勞工安全及產品責任等層面,對我國機器人產品之相關法令進行盤點,並選定歐盟機器人領域相關指令進行研析,對我國相關各界而言,或宜以該等規範或標準為標竿或參考,帶動台灣機器人產業向世界發展。 一、我國法規現況 目前針對機器人產品之法令散見於各法規之中,除了工業用機器人針對職業安全、危害預防有特定規範之外,並無(其他)機器人特別規範,相關規範盤點如下表,並就各類別說明如下: 表 1 :我國機器人相關規範 分類 細類別 規範 內容 商品檢驗、 產品安全 商品檢驗、 電磁相容性 《商品檢驗法》、《商品型式認可管理辦法》 商品安全管理制度。 頻譜 《電信法》、《電波監理業務管理辦法》 無線電頻率指配及設備規範。 國家標準 CNS 14490-1 B8013-1 CNS 14490-2 B8013-2 工業機器人安全性國家標準。 國際標準 工業機器人 ISO 10218-1 ISO 10218-2 ISO 9283 ISO 10218-1--規範工業機器人製造商適用的安全要求。ISO 10218-2--規範工業機器人系統整合適用的安全要求。 ISO 9283--提供工業用機器人操作之性能與測試標準與方法。 個人護理機器人 ISO 13482 個人護理機器人之調和安全標準,其安全性和可靠性的評估依據。 資料保護 個人資料 《個人資料保護法》 規範針對個人資料進行蒐集、處理、利用的單位,都應該取得當事人同意或依法進行。 勞工安全 職業安全 (工業機器人) 《職業安全衛生管理辦法》、「事業單位實施協作機器人安全評估報告參考手冊」 雇主對工業用機器人應於每日作業前依規定實施檢點。 使用協同作業機器人時實施安全評估,並製作安全評估報告,確保勞工作業安全。 危害預防 (工業機器人) 《工業用機器人危害預防標準》、「機器人危害預防手冊」 預防工業用機器人造成之危害。 產品責任 責任歸屬 《民法》、《消費者保護法》 機器人造成相關損害,所應負之契約及侵權責任。 鼓勵促進 投資抵減 《產業創新條例》、《公司或有限合夥事業投資智慧機械或第五代行動通訊系統抵減辦法》 企業投資於自行使用全新智慧機械,或導入5G行動通訊系統相關設備或技術一定額度,得抵減營利事業所得稅。 資料來源:本研究整理 二、歐盟機器人法制規範與發展 歐盟為了避免各成員國間產品監管法規之差異阻礙貿易流通,故歐盟採行後市場監督工作為核心之產品安全規範體系,並透過調和指令來調和產品安全法規,建立歐盟境內一致性之產品安全規範體系,以下整理出歐盟與機器人相關之規範、內容。 表 2 :歐盟機器人相關規範 分類 細類別 規範 內容 商品檢驗、 產品安全 商品檢驗通用規範 《新法律架構規範》(Regulation EC No.765/2008 )、《新法律架構決議》(Decision No. 768/2008/EC) 包括商品檢驗之一般性規定、認證、歐盟市場監督與進入市場之管制、CE 標識、符合歐盟財政安排之活動等相關規範。 機械 《機械指令》(Directive 2006/42/EC[3]) 推動機械產品之自由移動,並保證歐盟勞工及人員享有高度保護。原則上,該項指令僅適用於第一次進入歐盟市場之機械產品。 電磁波 《電磁相容性指令》(Directive 2014/30/EU[4]) 為保證所有電機電子產品可正常運行,不被其他產品釋放出的電磁干擾,亦不會釋放可能干擾其他產品正常運行之電磁。 無線電 《無線電設備指令》(Directive 2014/53/EU) 確保無線電設備符合歐盟安全及衛生要求,包括市場監管機制,特別要求製造商、進口商及配銷商應有之追溯責任。 資料保護 個人資料保護 《一般個人資料保護規則》(GDPR[5]) 內容主要涵蓋資料當事人的權利、資料控制者與處理者的義務、個資跨境傳輸、政府的監理體制、救濟措施等。 勞工安全 職業安全 《工人工作過程中的健康和安全水平指令》(89/391/EEC) 鑑於工作事故和職業病的發生率高,雇主須採取或改進預防措施,以保障工人的安全和健康並確保更高的保護水準;及告知工人安全和健康的風險並降低或消除這些風險所需的措施。 產品責任 責任歸屬 《一般產品安全指令》(Directive 2001/95/EC)[6]、 《產品責任指令》(Council Directive 85/374/EEC[7]) 規定產品一般性要求、製造及銷售業者的責任。 資料來源:本研究整理 貳、重點說明 觀察我國及歐盟現行有關機器人之規範大致可分四類,商品檢驗、資料保護、勞工安全及產品責任。 在商品檢驗之規範方面,主要係為促使商品符合安全、衛生、環保及其他技術法規或標準,為保護消費者權益,國家辦理各類商品之檢驗以維護產品安全;而資料保護則是在以大量資料之分析為基礎的人工智慧發展浪潮下,個人資料保護議題面臨挑戰,國家試圖在創新發展及隱私保護上進行衡平規範;勞工安全方面則是由於機器人可能因使用不當造成勞工工作災害,實需要讓勞工使用符合機械安全標準的工業用機器人,以預防發生產業之切、割、捲、夾、被撞等類型職業災害(近年也有針對服務型機器人之工安標準討論,但尚未有具體規範);最後在產品責任部分,目前多依循既有契約、侵權等民事規範處理,但當機器人自主決定所致損害時,因機器人決策形成過程所涉及之軟硬體、資料、資料連網服務等相當龐雜,難以(快速)釐清與歸責,有待進一步規範並填補損害。依據規範類別,對比我國與歐盟之主要差別如下表: 表 3 :歐盟與我國機器人規範之主要差別 歐盟 我國 商品檢驗 主要以「產品功能」對應其檢驗流程。 設有「自我宣告」之簡易流程,並開放認可之實驗室檢驗。 主要以「品項」對應其檢驗流程,須先進行「品目查詢」。 主管機關介入度較高。 資料保護 規定較具體細緻,跨境傳輸、自動化決策、被遺忘權及資料可攜有具體規定。 未針對人工智慧應用有特殊規定。 未規範自動化決策、被遺忘權及資料可攜。 勞工安全 依循既有工安規範。 工業機器人之工安規範依循國際標準。 工業機器人之工安規範依循國際標準(但未完全一致)。 產品責任 主要採「嚴格責任」,仍有少數免責事由。 針對智慧機器人應用之民事責任有進行相關檢討及修法分析。 採民法、消保法雙軌制,消保法採無過失責任(無法完全免責)。 資料來源:本研究整理 就歐盟針對機器人之監管法規架構,及與機器人相關產品指令之規範內容與主要義務,檢視對應我國之相關法規與規定後發現,事實上我國關於機器人商品檢驗之規範方向與歐盟大致相似,主要差異在於資料保護方面,因歐盟GDPR之規範較新且較為細緻,存有許多我國個資法尚未規範之處,而我國也尚未針對智慧機器人之產品責任規範。我國與歐盟關於機器人規範之整體比較,請參照下表: 表 4 :歐盟與我國機器人規範之比較 分類 歐盟規範內容 我國規範 商品檢驗 產品認證、評鑑程序 法源依據為新法律架構規範、新法律架構決議。 產品認證部分--(accreditation)一般性規定、認證、市場監督與進入市場之管制、CE 標識。 →多數商品可透過「自我宣告」等較簡易之方式進入市場。 《商品檢驗法》第5條:商品檢驗執行之方式,分為逐批檢驗、監視查驗、驗證登錄及符合性聲明四種,依照不同種類而有不同之分類及檢驗方式。à部分產品政府高度介入 《商品型式認可管理辦法》第6條第1項第1款規定:「一、一般型式試驗:電磁相容性型式試驗,應檢具相關技術文件及足夠測試所需之樣品,向標準檢驗局認可之指定試驗室辦理;其他型式試驗,應檢具相關技術文件及足夠測試所需之樣品,向檢驗機關或標準檢驗局認可之指定試驗室辦理。但大型或系統複雜商品,得向標準檢驗局申請指定場所測試。」 評鑑程序的部分—規範各種技術工具之定義、設計標準、符合性評鑑主體之通知、通知過程之條款、符合性評鑑之程序、防衛機制、經濟營運者(economic operators)之責任及商品追蹤性等規定。 機械 法源依據為機械指令,當產品進入市場--應符合一定要件、程序(如:健康和安全規範、黏貼CE標誌等要求) 職業安全衛生法以及商品檢驗法規定,我國未符合安全標準或未通過檢驗之機械產品,不得產製運出廠場或輸入。 產品標準之法源依據為機械指令。 職業安全衛生法第7條。 市場監督之法源依據為機械指令。 職業安全衛生法第7條、第8條、第9條,以及機械設備器具監督管理辦法中,規範產品監督及市場查驗之細節。 電子電氣設備電磁相容性之基本要求 法源依據為電磁相容性指令。 《商品型式認可管理辦法》第6條第1項第1款--電磁相容性型式試驗,應檢具相關技術文件及足夠測試所需之樣品,向標準檢驗局認可之指定試驗室辦理 無線電終端設備之基本要求 法源依據為無線電設備指令 電信法第42條第2項、電信終端設備審驗辦法 資料保護 開發設計 《一般個人資料保護規則》:事前進行「個人資料保護影響評估」 以及可能造成之風險與資料管理者所採取之保護措施、安全措施(強調事前)。 施行細則第12條2項3款規範個人資料風險評估及管理。 蒐集、感測 《一般個人資料保護規則》:個人資料範疇--明文涵蓋網路識別碼、位置資訊。 特定目的:有規定「為達成公共利益之目的、科學或歷史研究目的或統計目的所為之進階處理,不應視為不符合原始目的」之例外。 去識別化之方式:歐盟強調不可逆。 跨境傳輸:原則禁止,例外允許。當未取得認證或適足性,外國廠商無法將歐盟境內所蒐集到的個資,傳輸回位於本國之伺服器。 個人資料範疇:我國較多正面表列項目,無規定者則依靠解釋。(第2條第1款、第6條)位置資訊、網路識別碼等是否屬於個資,我國並未列舉,實務上迭有爭議。 特定目的:皆須有特定目的方可為之。 去識別化之方式:個人資料保護法施行細則第17條,並未強調不可逆。 跨境傳輸:原則允許,例外禁止。(第21條) 處理、資料分類 《一般個人資料保護規則》:資料處理--需符合一定之規範(未區分公務及非公務機關)。 資料處理:需符合一定規範,並特別區分公務及非公務機關。(第15、19條) 分析與驅動傳輸 《一般個人資料保護規則》: 自動化決策--強調「透明處理原則」,針對「個人化自動決策」賦予用戶請求解釋、拒絕適用的權利。 被遺忘權--應考量現行可行之科技技術及費用,選擇適當之措施,包括刪除所有與其個資之連結。 資料可攜權--資料主體應有權接收其提供予控管者之資料,並有權將之傳輸給其他控管者。 自動化決策:無規定。 被遺忘權:規定模糊,容有解釋空間。 資料可攜權:可透過間接解釋之方式達成。 後續衍生的偏見、歧視等問題 《人工智慧倫理準則》目前為企業自主使用,無強制性。 科技部《人工智慧科研發展指引》目前以科研人員為適用對象。(目前請科技部AI研究中心計畫、中心Capstone計畫、研究計畫人員填寫自評表) 產品責任 產品責任之義務範圍 法源依據為《一般產品安全指令》、《產品責任指令》。 生產者--應僅將安全產品投入市場,向消費者提供評估和預防風險的資訊。 經銷商--監督產品進入市場的安全性,相關適當因應措施。 消保法第7條第1項:企業經營者應確保該商品或服務,符合當時科技或專業水準可合理期待之安全性。 消保法第10條:危險產品之回收和要求採取適當因應措施。 產品責任之責任範圍 法源依據為《一般產品安全指令》、《產品責任指令》。 嚴格責任(strict liability)--消費者不需要證明製造商之過失,只需要證明損害是由產品造成即可。(製造商例外仍可自證免責,產品責任指令第7條) 民法第191條之1第1項:推定過失責任,為舉證責任倒置的設計。 消保法第7條第1項:企業經營者能證明其無過失者,法院得減輕其賠償責任。採無過失責任,無免責條款。 產品責任之連帶賠償責任 法源依據為《一般產品安全指令》、《產品責任指令》。 兩個以上的生產者(包含製造、經銷、進口商等),應對同一損害共同承擔責任時。 消保法第7條第3項--企業經營者商品不符當時科技或專業水準之安全性、危害消費者,致生損害於消費者或第三人時。 消保法第8條--從事經銷之企業經營者。 消保法第9條--輸入商品之企業經營者。 資料來源:本研究整理 參、事件評析 我國目前法律規範主要針對「工業型機器人」為主,而未來也應逐漸擴及至「服務型機器人」,並對「智慧機器人」相關議題有所討論,且可能宜進一步區分其風險高低而有不同規範,例如區分一般風險較低的家庭服務、居家照護機器人進行一般之商品安全及責任規範;而對於高度風險之機器人,除應有基本操作與風險排除規範外,更應避免使用錯誤造成危害。同時考慮機器人的運作,必須讓主管機關可以追蹤、回溯所有設計、製造、販售、所有權人與使用人,藉以釐清責任歸屬,並要求符合相對應的安全規範管制要求,以尋求更好的預防與處置管制措施。因此,針對我國機器人相關之規範初步發現及建議如下: 一、商品檢驗規範尚待明確:目前我國對於機器人之相關規範及標準大多集中於商品檢驗與勞工安全兩類,且以工業型機器人為主要規範標的;鑒於服務型機器人之發展,許多標榜為「機器人」之產品快速增加,而其對應之商品檢驗品項與標準不甚明確,造成業者與消費者之疑義。同時,國際間開始針對部分服務型機器人提出相關標準,此部分也應參酌國際趨勢,考量進行滾動式更新或調整,同時可透過公協會或平台使業者知悉規範趨勢。 二、考量業者需求彈性調整資料保護規範:由於智慧機器人奠基於大量資料驅動與人工智慧技術,而我國現有個人資料保護規範尚未有對應於人工智慧技術之彈性規範,且與國際間相關規範(例如:GDPR)有部分無法對應之處。因此,在具體應用上產生遵法成本過高、資料流通受限等問題。故在資料保護之規範上,除考量新興技術之應用外,也應考量國外相關規範之域外效力,儘快取得適足性認定,而有助於我國業者拓展國外市場。 三、逐步研訂或調整與智慧機器人之相關規範:由於目前具有高自主性之智慧機器人在市場尚未普及,相關產品責任仍回歸適用既有各類規範(例如:民法、消費者保護法等)。但國外已開始針對機器人之倫理、責任歸屬等問題,積極展開研究與佈署,並討論是否既有規範可能產生之不足之處,而有修正既有規範與研訂專門法規之討論。而智慧機器人隨著其自主性越高可能產生不可預見之風險,而可能與現行規範有所扞格。因此,未來主管機關應參酌國外相關研究與規範,並逐步建置可以追蹤、回溯所有設計、製造、販售、所有權人與使用人,藉以釐清責任歸屬,並符合相對應的安全規範管制要求,並尋求相應之風險預防與處置管制措施。 [1] 人工智慧可有三層次定義:第一層次是「弱人工智慧」或「狹隘人工智慧」,希望電腦能解決某個需要高度智力才能解決的問題,不要求它跟人類一樣有全面智慧解決各式各樣不同的問題;第二個層次是「強人工智慧」或「泛人工智慧」:要求電腦的智慧需要更全面廣泛,需要有推理、學習、規劃、語言溝通、知覺等能力,擁有這些能力的電腦才有可能展現出跟人類並駕齊驅的智慧;第三個層次是John Searle提出的「強人工智慧假說」(Strong AI Hypothesis),這個層次人工智慧需要擁有跟人類一樣的「心靈」,需要認知自我並如同人類般思考。 [2] 當前機器人已衍生許多產品且應用場景各有不同,就不同種類、不同場景之機器人有不同規範程度之需求。在工業機器人方面,過去因為工安考量,法規強調機器與人類之間分開作業、人機間之安全距離等,但近年來因為人機協力操作之設計與發展備受關注,逐漸產生出人機近距離協力合作之安全標準;而在於服務機器人議題當中,基本上服務機器人被設計為允許與人類共同存在同一空間中,且產品種類多樣化(無人機、搬運機器人、掃地機器人、照護機器人等皆屬之),但也因當前安全標準及相關之規範缺乏,各國對於產品審驗之寬嚴不一,亦成為機器人發展與市場流通之障礙;而在智慧機器人規範方面,倫理、責任歸屬及配套措施則是目前國際討論之焦點。 [3] Directive 2006/42/EC of the European parliament and of the council, EUR-LEX, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:02006L0042-20190726 (last visited Mar. 5, 2021). [4] Directive 2014/30/EU of the European Parliament and of the Council, EUR-LEX, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=celex%3A32014L0030, (last visited Mar. 15, 2021). [5] Regulation (EU) 2016/679 of the European parliament and of the council, EUR-LEX, https://eur-lex.europa.eu/legal-content/EN/ALL/?uri=celex%3A32016R0679 (last visited Mar. 15, 2021). [6] Directive 2001/95/EC of the European parliament and of the council, EUR-LEX, https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:02001L0095-20100101 (last visited Mar. 4, 2021). [7] Council Directive 85/374/EEC, EUR-LEX, https://eur-lex.europa.eu/legal-content/en/TXT/?uri=CELEX:31985L0374 (last visited Mar. 5, 2021).
日本政府怎樣對公部門管制DeepSeek?日本政府怎樣對公部門管制DeepSeek? 資訊工業策進會科技法律研究所 2025年07月07日 2025年2月3日,日本個人情報保護委員會(Personal Information Protection Commission,簡稱PPC)發布新聞稿指出[1],DeepSeek所蒐集的資料,將會儲存在中國的伺服器裡,且為中國《國家情報法》的適用對象[2]。這可能將導致個人資料遭到中國政府調用或未經授權的存取。作為中國開發的生成式AI,DeepSeek雖以優異的文本能力迅速崛起,卻也引發資安疑慮。 身處地緣政治敏感區的日本對此高度警覺,成為率先提出警告的國家之一。台灣與日本面臨相似風險,因此日本的應對措施值得借鏡。本文將從PPC新聞稿出發,探討日本如何規範公部門使用DeepSeek。 壹、事件摘要 DeepSeek作為中國快速崛起之生成式AI服務,其使用範圍已快速在全球蔓延。然而,日本PPC發現該公司所公布之隱私政策,內容說明其所蒐集之資料將存儲於中國伺服器內,並依據中國《國家情報法》之適用範圍可能遭到中國政府調用或未經授權之存取。 日本PPC因而於2025年2月3日發布新聞稿,隨後日本數位廳於2月6日發函給各中央省廳,強調在尚未完成風險評估與資安審查之前,政府機關不應以任何形式將敏感資訊輸入DeepSeek,並建議所有業務使用應先諮詢內閣資安中心(内閣サイバーセキュリティセンター,NISC)與數位廳(デジタル庁)意見,才能判定可否導入該類工具[3]。數位大臣平將明亦在記者會中強調:「即使不是處理非機密資料,各機關也應充分考量風險,判斷是否可以使用。」(要機密情報を扱わない場合も、各省庁等でリスクを十分踏まえ、利用の可否を判断する)[4]。 本次事件成為日本對於生成式AI工具採取行政限制措施的首次案例,也引發公私部門對資料主權與跨境平台風險的新一輪討論。 貳、重點說明 一、日本對於人工智慧的治理模式 日本在人工智慧治理方面採取的是所謂的「軟法」(soft law)策略,也就是不依賴單一、強制性的法律來規範,而是以彈性、分散的方式,根據AI的實際應用場景與潛在風險,由相關機關分別負責,或透過部門之間協作因應。因此,針對DeepSeek的管理行動也不是由某一個政府部門單獨推動,而是透過跨部會協作完成的綜合性管控,例如: (一)PPC的警示性通知:PPC公開說明DeepSeek儲存架構與中國法規交錯風險,提醒政府機關與公務人員謹慎使用,避免洩漏資料。 (二)數位廳的行政指引:2025年2月6日,日本數位廳針對生成式AI的業務應用發布通知,明列三項原則:禁止涉密資料輸入、限制使用未明確審查之外部生成工具、導入前應諮詢資安機構。 (三)政策溝通與政治聲明:平將明大臣在記者會上多次強調DeepSeek雖未明列於法條中禁用,但其高風險屬性應視同「潛在危害工具」,需列入高敏感度審查項目。 二、日本的漸進式預防原則 對於DeepSeek的管制措施並未升高至法律層級,日本政府亦沒有一概禁止DeepSeek的使用,而是交由各機關獨自判斷[5]。這反映出了日本在AI治理上的「漸進式預防原則」:先以行政指引建構紅線,再視實際風險與民間回饋考慮是否立法禁用。這樣的作法既保留彈性,又讓官僚系統有所依循,避免「先開放、後收緊」所帶來的信任危機。 三、日本跟循國際趨勢 隨著生成式AI技術迅速普及,其影響已不再侷限於產業應用與商業創新,而是逐漸牽動國家資安、個資保護以及國際政治秩序。特別是生成式AI在資料存取、模型訓練來源及跨境資料流通上的高度不透明,使其成為國家安全與數位主權的新興挑戰。在這樣的背景下,各國對生成式AI工具的風險管理,也從原先聚焦於產業自律與技術規範,提升至涉及國安與外交戰略層面。 日本所採取的標準與國際趨勢相仿。例如韓國行政安全部與教育部也在同時宣布限制DeepSeek使用,歐盟、美國、澳洲等國亦有不同程度的封鎖、審查或政策勸導。日本雖然和美國皆採取「軟法」(soft law)的治理策略,然而,相較於美國以技術封鎖為主,日本因其地緣政治的考量,對於中國的生成式AI採取明確防範的態度,這一點與韓國近期禁止政府機構與學校使用中國AI工具、澳洲政府全面禁止政府設備安裝特定中國應用程式類似。 參、事件評析 這次日本政府對於DeepSeek的應對措施,反映出科技治理中的「資料主權問題」(data sovereignty):即一個國家是否有能力控制、保存與使用其管轄範圍內所生產的資料。尤其在跨境資料傳輸的背景下,一個國家是否能保障其資料不被外國企業或政府擅自使用、存取或監控,是資料主權的核心問題。 生成式AI不同於傳統AI,其運作依賴大規模訓練資料與即時伺服器連接,因此資料在輸入的瞬間可能已被收錄、轉存甚至交付第三方。日本因而對生成式AI建立「安全門檻」,要求跨境工具若未經審核,即不得進入政府資料處理流程。這樣的應對策略預示了未來國際數位政治的發展趨勢:生成式AI不只是科技商品,它已成為跨國治理與地緣競爭的核心工具。 中國通過的《國家情報法》賦予政府調閱私人企業資料的權力,使得中國境內所開發的生成式AI,儼然成為一種資訊戰略利器。若中國政府藉由DeepSeek滲透他國公部門,這將對國家安全構成潛在威脅。在此背景下,日本對公部門使用DeepSeek的管制,可被解讀為一種「數位防衛行為」,象徵著日本在數位主權議題上的前哨部署。 值得注意的是,日本在處理DeepSeek事件時,採取了「不立法限制、但公開警示」的方式來應對科技風險。此舉既避免激烈封鎖引發爭議,又對於資料的運用設下邊界。由於法令規範之制定曠日費時,為避免立法前可能產生之風險,日本先以軟性之限制與推廣手段以防止危害擴大。 台灣雖與日本同處地緣政治的敏感地帶,資料主權議題對社會影響深遠,為使我國可在尚未有立法規範之狀態下,參考日本所採之行政命令內控與公開說明外宣雙向並行之策略,對台灣或許是一種可行的借鏡模式。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]個人情報保護委員会,DeepSeekに関する情報提供,https://www.ppc.go.jp/news/careful_information/250203_alert_deepseek/ (最後瀏覽日:2025/05/06)。 [2]《中华人民共和国国家情报法》第7条第1项:「任何组织和公民都应当依法支持、协助和配合国家情报工作,保守所知悉的国家情报工作秘密。」 [3]デジタル社会推進会議幹事会事務局,DeepSeek等の生成AIの業務利用に関する注意喚起(事務連絡),https://www.digital.go.jp/assets/contents/node/basic_page/field_ref_resources/d2a5bbd2-ae8f-450c-adaa-33979181d26a/e7bfeba7/20250206_councils_social-promotion-executive_outline_01.pdf (最後瀏覽日:2025/05/06)。 [4]デジタル庁,平大臣記者会見(令和7年2月7日),https://www.digital.go.jp/speech/minister-250207-01 (最後瀏覽日:2025/05/06)。 [5]Plus Web3 media,日本政府、ディープシークを一律禁止せず 「各機関が可否を判断する」,https://plus-web3.com/media/500ds/?utm_source=chatgpt.com (最後瀏覽日:2025/05/06)。