無人機(Drone)也就是無人飛機或無人飛行器(Unmanned Aerial Vehicles, UAV),具備自動飛行系統的簡易模型飛機,自動飛行系統內可能包含一電腦作業系統、一套衛星導航裝置、羅盤功能、氣壓高度計、偵測器及設計飛行之軟體等等,簡稱無人機。茲因電子與無線傳輸科技進步,無人機在國際間掀起流行,近來無人機之使用引發安全疑慮,促進各國重視無人機的使用與法制管理。目前國際間陸續針對無人機立法管理的有美國、日本及歐盟等,我國行政院亦於2015年9月24日通過「民用航空法」部分條文修正草案因應無人機遙控管理規範。觀諸國際立法及修法趨勢,無人航空器之管理,包括無人機的體積、重量、使用用途、使用區域限制、使用時間限制、飛行速度或方法、飛行高度限制等,且亦須重視安全、隱私、資料保護、損害責任與保險相關問題,以及無人機所有權明確判別之方式等,因此我國未來就無人機相關管理規範或可參考先進國家重要管理規定,擬定更適合我國之「無人航空器管理規則」,俾利發展新興科技無人機市場時,同時能兼顧確保個人、國家與領空安全之規劃。
本文為「經濟部產業技術司科技專案成果」
歐盟委員會與美國白宮於2022年3月25日發布聯合聲明,宣布雙方已就新的跨大西洋資料傳輸框架達成原則性協議。此舉旨在因應2020年7月歐盟法院(Court of Justice of the European Union)於Schrems II案的判決中宣告「歐盟—美國隱私盾協定」(EU-US Privacy Shield Framework)不符合歐盟一般資料保護規則(General Data Protection Regulation, GDPR)而無效。依照該聯合聲明,新的框架將在雙方間資料流動的可預測性、可監督性、可信賴性以及可救濟性等方面進行補強,以充分維護公民的隱私與自由權利。 目前,該框架仍處於原則性協議的階段,具體細節仍有待後續談判。聯合聲明指出,美國在下列三個方面做出了「重大承諾」: 加強控管美國的情報活動,以確保所追求國家安全目的適法,且所採取的手段係在必要範圍內,而未過度侵犯公民的隱私與自由。 建立具有約束力且獨立的多層次救濟機制,其中包含一個由非政府人員所組成的「個人資料保護審查法院」,並賦予該組織完全的審判權。 針對情報活動強化分層且嚴格的行政監督機制,以確保其合乎隱私與自由的新標準。 上述原則性協議的達成,表面上無疑是一項好消息,將有助於解決雙方跨境資料傳輸的法源爭議,並避免持續演變成嚴重的歐美貿易爭端。然而,美國政府能否順利將新框架轉化為具有約束力的國內行政命令,仍存在相當多的不確定因素。若結果為否,則最終亦難以達成取得歐盟根據GDPR所為「適足性認定」(adequacy decision)的政策目標。
聯合國委員會通過聲明 禁止各種形式複製人研究面對科學界越來越無法抵擋的複製人浪潮,聯合國二月十八日召開一項特別會議,並表決通過聲明,呼籲各國政府禁止各種形式的複製人研究,包括用於研究人類幹細胞的技術等。不過項聲明並不具強制力。 聯合國法律委員會是以七十一票贊成,三十五票反對,四十三票棄權下,通過這項由宏都拉斯和美國布希政府提出的支持禁止複製人的聲明,委員會通過後交給聯合國大會,由一百九十一個會員國成員最後決定。回教國家已經表明,聯合國大會表決時將棄權,因為聯合國內部並無法達成共識﹔而目前各自有人類幹細胞研究的英國,比利時和新加坡都反對這項聲明,並稱聲明內容不會影響他們的「醫療性幹細胞研究」。 會中支持和反對陣營的最主要爭議核心,在於醫療性複製人類的研究,這類研究必須複製人類胚胎取得幹細胞,實驗結束後銷毀。支持這項研究技術的科學家認為,人類幹細胞研究為許多至今仍無法治療的疾病帶來新希望,例如阿茲海默症,各種癌症,糖尿病和脊椎傷害患者,影響約一億人﹔但是如美國,加拿大等反對國家則認為,這種研究不論是哪一種目的,都是在剝奪利用一個人的生命。聯合國成員在二○○一年起討論制定一項具約束力的全球性公約,禁止複製人,不過各國歧見擴大,一直無法達成共識。義大利因此提議制定不具強制力的宣言,呼籲各國各自立法「禁止任何透過複製程序產生人類生命的企圖,以及任何意圖達成此一目的的研究。」不過,宏都拉斯將此建議擴大,提議聯合國聲明「禁止所有形式的複製人行為。」
能源清醒!歐洲競爭電信協會主張應重新討論網路建設的付出與碳排放影響的歸責「能源清醒」(Energy Sobriety)作為一種概念逐漸被普及到政策和法令之中。目的在於使各種使用者對於自身行為所產生的碳排放有所警醒、並且就其行為所產生的碳排放負起責任,進而在產品、設備的選擇和使用習慣上重新進行考慮。藉由選擇減少消費、或是更改消費模式來更好的保護地球資源、減少碳排放。能源清醒的概念和能源效率的概念不同,他透過社會文化的改變來達到能源節省的目的、而不是仰賴技術的革新。 基於此一概念,歐洲競爭電信協會(European Competitive Telecommunications Association)於2022年9月發表對於網路基礎建設投資的聲明,希望能就對於網路建設的付出是否公平展開討論。 該協會表示,雖然其身為電子通信業者的成員們在歐洲綠色政綱(European Green Deal)上有所投入、致力於減少環境足跡,但是網路流量的穩定增加卻限制了電子通信業者對於減少溫室氣體排放的努力。而這種現象在行動網路(mobile network)的使用上特別明顯。因為將高品質(如4K、8K或HDR)的影像傳輸到行動裝置或小尺寸螢幕設備上對於用戶體驗的提升並沒有實際上的幫助,但是卻會使得網路頻寬(bandwidth)被大量消耗以及大量的溫室氣體在過程中被排放。這使得營運商將網路規模擴大(更多的核心網路和RAN設備、更多的設備和地點),因此有了更高的耗能,對於環境的影響也更加劇烈。對此,協會提議透過監管方式來改善這種情形,認為應要求內容供應商應採取非歧視性的、與內容無關的方式使影音解析度適應螢幕尺寸的解決方案,從而減少不必要的網路流量和浪費,並且給予其適度的獎勵措施。 該協會認為,任何符合能源清醒的模式都應該受到數位生態圈的集體鼓勵。而其中的每個參與者也應該要注意和承認自己的行為所產生的影響,並作為一個能源使用者和造成碳排放的實際個體負起責任。對此,歐洲競爭電信協會已經準備好就此提議進行討論與辯論。
日本政府怎樣對公部門管制DeepSeek?日本政府怎樣對公部門管制DeepSeek? 資訊工業策進會科技法律研究所 2025年07月07日 2025年2月3日,日本個人情報保護委員會(Personal Information Protection Commission,簡稱PPC)發布新聞稿指出[1],DeepSeek所蒐集的資料,將會儲存在中國的伺服器裡,且為中國《國家情報法》的適用對象[2]。這可能將導致個人資料遭到中國政府調用或未經授權的存取。作為中國開發的生成式AI,DeepSeek雖以優異的文本能力迅速崛起,卻也引發資安疑慮。 身處地緣政治敏感區的日本對此高度警覺,成為率先提出警告的國家之一。台灣與日本面臨相似風險,因此日本的應對措施值得借鏡。本文將從PPC新聞稿出發,探討日本如何規範公部門使用DeepSeek。 壹、事件摘要 DeepSeek作為中國快速崛起之生成式AI服務,其使用範圍已快速在全球蔓延。然而,日本PPC發現該公司所公布之隱私政策,內容說明其所蒐集之資料將存儲於中國伺服器內,並依據中國《國家情報法》之適用範圍可能遭到中國政府調用或未經授權之存取。 日本PPC因而於2025年2月3日發布新聞稿,隨後日本數位廳於2月6日發函給各中央省廳,強調在尚未完成風險評估與資安審查之前,政府機關不應以任何形式將敏感資訊輸入DeepSeek,並建議所有業務使用應先諮詢內閣資安中心(内閣サイバーセキュリティセンター,NISC)與數位廳(デジタル庁)意見,才能判定可否導入該類工具[3]。數位大臣平將明亦在記者會中強調:「即使不是處理非機密資料,各機關也應充分考量風險,判斷是否可以使用。」(要機密情報を扱わない場合も、各省庁等でリスクを十分踏まえ、利用の可否を判断する)[4]。 本次事件成為日本對於生成式AI工具採取行政限制措施的首次案例,也引發公私部門對資料主權與跨境平台風險的新一輪討論。 貳、重點說明 一、日本對於人工智慧的治理模式 日本在人工智慧治理方面採取的是所謂的「軟法」(soft law)策略,也就是不依賴單一、強制性的法律來規範,而是以彈性、分散的方式,根據AI的實際應用場景與潛在風險,由相關機關分別負責,或透過部門之間協作因應。因此,針對DeepSeek的管理行動也不是由某一個政府部門單獨推動,而是透過跨部會協作完成的綜合性管控,例如: (一)PPC的警示性通知:PPC公開說明DeepSeek儲存架構與中國法規交錯風險,提醒政府機關與公務人員謹慎使用,避免洩漏資料。 (二)數位廳的行政指引:2025年2月6日,日本數位廳針對生成式AI的業務應用發布通知,明列三項原則:禁止涉密資料輸入、限制使用未明確審查之外部生成工具、導入前應諮詢資安機構。 (三)政策溝通與政治聲明:平將明大臣在記者會上多次強調DeepSeek雖未明列於法條中禁用,但其高風險屬性應視同「潛在危害工具」,需列入高敏感度審查項目。 二、日本的漸進式預防原則 對於DeepSeek的管制措施並未升高至法律層級,日本政府亦沒有一概禁止DeepSeek的使用,而是交由各機關獨自判斷[5]。這反映出了日本在AI治理上的「漸進式預防原則」:先以行政指引建構紅線,再視實際風險與民間回饋考慮是否立法禁用。這樣的作法既保留彈性,又讓官僚系統有所依循,避免「先開放、後收緊」所帶來的信任危機。 三、日本跟循國際趨勢 隨著生成式AI技術迅速普及,其影響已不再侷限於產業應用與商業創新,而是逐漸牽動國家資安、個資保護以及國際政治秩序。特別是生成式AI在資料存取、模型訓練來源及跨境資料流通上的高度不透明,使其成為國家安全與數位主權的新興挑戰。在這樣的背景下,各國對生成式AI工具的風險管理,也從原先聚焦於產業自律與技術規範,提升至涉及國安與外交戰略層面。 日本所採取的標準與國際趨勢相仿。例如韓國行政安全部與教育部也在同時宣布限制DeepSeek使用,歐盟、美國、澳洲等國亦有不同程度的封鎖、審查或政策勸導。日本雖然和美國皆採取「軟法」(soft law)的治理策略,然而,相較於美國以技術封鎖為主,日本因其地緣政治的考量,對於中國的生成式AI採取明確防範的態度,這一點與韓國近期禁止政府機構與學校使用中國AI工具、澳洲政府全面禁止政府設備安裝特定中國應用程式類似。 參、事件評析 這次日本政府對於DeepSeek的應對措施,反映出科技治理中的「資料主權問題」(data sovereignty):即一個國家是否有能力控制、保存與使用其管轄範圍內所生產的資料。尤其在跨境資料傳輸的背景下,一個國家是否能保障其資料不被外國企業或政府擅自使用、存取或監控,是資料主權的核心問題。 生成式AI不同於傳統AI,其運作依賴大規模訓練資料與即時伺服器連接,因此資料在輸入的瞬間可能已被收錄、轉存甚至交付第三方。日本因而對生成式AI建立「安全門檻」,要求跨境工具若未經審核,即不得進入政府資料處理流程。這樣的應對策略預示了未來國際數位政治的發展趨勢:生成式AI不只是科技商品,它已成為跨國治理與地緣競爭的核心工具。 中國通過的《國家情報法》賦予政府調閱私人企業資料的權力,使得中國境內所開發的生成式AI,儼然成為一種資訊戰略利器。若中國政府藉由DeepSeek滲透他國公部門,這將對國家安全構成潛在威脅。在此背景下,日本對公部門使用DeepSeek的管制,可被解讀為一種「數位防衛行為」,象徵著日本在數位主權議題上的前哨部署。 值得注意的是,日本在處理DeepSeek事件時,採取了「不立法限制、但公開警示」的方式來應對科技風險。此舉既避免激烈封鎖引發爭議,又對於資料的運用設下邊界。由於法令規範之制定曠日費時,為避免立法前可能產生之風險,日本先以軟性之限制與推廣手段以防止危害擴大。 台灣雖與日本同處地緣政治的敏感地帶,資料主權議題對社會影響深遠,為使我國可在尚未有立法規範之狀態下,參考日本所採之行政命令內控與公開說明外宣雙向並行之策略,對台灣或許是一種可行的借鏡模式。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]個人情報保護委員会,DeepSeekに関する情報提供,https://www.ppc.go.jp/news/careful_information/250203_alert_deepseek/ (最後瀏覽日:2025/05/06)。 [2]《中华人民共和国国家情报法》第7条第1项:「任何组织和公民都应当依法支持、协助和配合国家情报工作,保守所知悉的国家情报工作秘密。」 [3]デジタル社会推進会議幹事会事務局,DeepSeek等の生成AIの業務利用に関する注意喚起(事務連絡),https://www.digital.go.jp/assets/contents/node/basic_page/field_ref_resources/d2a5bbd2-ae8f-450c-adaa-33979181d26a/e7bfeba7/20250206_councils_social-promotion-executive_outline_01.pdf (最後瀏覽日:2025/05/06)。 [4]デジタル庁,平大臣記者会見(令和7年2月7日),https://www.digital.go.jp/speech/minister-250207-01 (最後瀏覽日:2025/05/06)。 [5]Plus Web3 media,日本政府、ディープシークを一律禁止せず 「各機関が可否を判断する」,https://plus-web3.com/media/500ds/?utm_source=chatgpt.com (最後瀏覽日:2025/05/06)。