英國將於西密德蘭郡大規模推行5G試驗計畫

  英國數位、文化、媒體暨體育部(Department for Digital, Culture Media & Sport, DCMS)於2018年3月公布5G測試平台及試驗計畫(5G Testbeds and Trials Programme)中之都市聯網計畫(Urban Connected Communities Project)政策文件,將於英國大規模推展5G試驗。同年9月4日,數位部部長宣佈其5G試驗團隊正與西密德蘭郡聯合管理局(the West Midlands Combined Authority, WMCA)及相關產業夥伴合作準備正式商業案例,預計將於2019年推行第一個計畫項目。
   本項目內容側重於醫療及汽車業,包含:

1. 透過流暢的視訊方式進行遠距醫療諮詢(Outpatient appointment)或緊急醫療情況之諮詢,而該視頻之內容除可回放外,與家人及看護間並可進行共享查看,以提升醫療照護之效率與品質。
2. 「聯網救護車」:醫療輔助人員得於事故現場即時獲得專家建議,例如與顧問或臨床專家進行視訊。並於救護車內即能傳送患者之即時資訊至醫院,使患者抵達醫院時能進行快速且妥適處理。
3. 即時傳輸公共巴士上之閉路電視(CCTV)畫面,以便立即採取行動制止反社會行為(anti-social behaviour)。

  計畫將可獲得高達5000萬英鎊之資金,並於柏明罕、考文垂以及伍爾弗漢普頓(Birmingham, Coventry and Wolverhampton)設立試驗中心執行相關計畫。

本文為「經濟部產業技術司科技專案成果」

※ 英國將於西密德蘭郡大規模推行5G試驗計畫, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8101&no=67&tp=1 (最後瀏覽日:2026/05/14)
引註此篇文章
你可能還會想看
日本政府怎樣對公部門管制DeepSeek?

日本政府怎樣對公部門管制DeepSeek? 資訊工業策進會科技法律研究所 2025年07月07日 2025年2月3日,日本個人情報保護委員會(Personal Information Protection Commission,簡稱PPC)發布新聞稿指出[1],DeepSeek所蒐集的資料,將會儲存在中國的伺服器裡,且為中國《國家情報法》的適用對象[2]。這可能將導致個人資料遭到中國政府調用或未經授權的存取。作為中國開發的生成式AI,DeepSeek雖以優異的文本能力迅速崛起,卻也引發資安疑慮。 身處地緣政治敏感區的日本對此高度警覺,成為率先提出警告的國家之一。台灣與日本面臨相似風險,因此日本的應對措施值得借鏡。本文將從PPC新聞稿出發,探討日本如何規範公部門使用DeepSeek。 壹、事件摘要 DeepSeek作為中國快速崛起之生成式AI服務,其使用範圍已快速在全球蔓延。然而,日本PPC發現該公司所公布之隱私政策,內容說明其所蒐集之資料將存儲於中國伺服器內,並依據中國《國家情報法》之適用範圍可能遭到中國政府調用或未經授權之存取。 日本PPC因而於2025年2月3日發布新聞稿,隨後日本數位廳於2月6日發函給各中央省廳,強調在尚未完成風險評估與資安審查之前,政府機關不應以任何形式將敏感資訊輸入DeepSeek,並建議所有業務使用應先諮詢內閣資安中心(内閣サイバーセキュリティセンター,NISC)與數位廳(デジタル庁)意見,才能判定可否導入該類工具[3]。數位大臣平將明亦在記者會中強調:「即使不是處理非機密資料,各機關也應充分考量風險,判斷是否可以使用。」(要機密情報を扱わない場合も、各省庁等でリスクを十分踏まえ、利用の可否を判断する)[4]。 本次事件成為日本對於生成式AI工具採取行政限制措施的首次案例,也引發公私部門對資料主權與跨境平台風險的新一輪討論。 貳、重點說明 一、日本對於人工智慧的治理模式 日本在人工智慧治理方面採取的是所謂的「軟法」(soft law)策略,也就是不依賴單一、強制性的法律來規範,而是以彈性、分散的方式,根據AI的實際應用場景與潛在風險,由相關機關分別負責,或透過部門之間協作因應。因此,針對DeepSeek的管理行動也不是由某一個政府部門單獨推動,而是透過跨部會協作完成的綜合性管控,例如: (一)PPC的警示性通知:PPC公開說明DeepSeek儲存架構與中國法規交錯風險,提醒政府機關與公務人員謹慎使用,避免洩漏資料。 (二)數位廳的行政指引:2025年2月6日,日本數位廳針對生成式AI的業務應用發布通知,明列三項原則:禁止涉密資料輸入、限制使用未明確審查之外部生成工具、導入前應諮詢資安機構。 (三)政策溝通與政治聲明:平將明大臣在記者會上多次強調DeepSeek雖未明列於法條中禁用,但其高風險屬性應視同「潛在危害工具」,需列入高敏感度審查項目。 二、日本的漸進式預防原則 對於DeepSeek的管制措施並未升高至法律層級,日本政府亦沒有一概禁止DeepSeek的使用,而是交由各機關獨自判斷[5]。這反映出了日本在AI治理上的「漸進式預防原則」:先以行政指引建構紅線,再視實際風險與民間回饋考慮是否立法禁用。這樣的作法既保留彈性,又讓官僚系統有所依循,避免「先開放、後收緊」所帶來的信任危機。 三、日本跟循國際趨勢 隨著生成式AI技術迅速普及,其影響已不再侷限於產業應用與商業創新,而是逐漸牽動國家資安、個資保護以及國際政治秩序。特別是生成式AI在資料存取、模型訓練來源及跨境資料流通上的高度不透明,使其成為國家安全與數位主權的新興挑戰。在這樣的背景下,各國對生成式AI工具的風險管理,也從原先聚焦於產業自律與技術規範,提升至涉及國安與外交戰略層面。 日本所採取的標準與國際趨勢相仿。例如韓國行政安全部與教育部也在同時宣布限制DeepSeek使用,歐盟、美國、澳洲等國亦有不同程度的封鎖、審查或政策勸導。日本雖然和美國皆採取「軟法」(soft law)的治理策略,然而,相較於美國以技術封鎖為主,日本因其地緣政治的考量,對於中國的生成式AI採取明確防範的態度,這一點與韓國近期禁止政府機構與學校使用中國AI工具、澳洲政府全面禁止政府設備安裝特定中國應用程式類似。 參、事件評析 這次日本政府對於DeepSeek的應對措施,反映出科技治理中的「資料主權問題」(data sovereignty):即一個國家是否有能力控制、保存與使用其管轄範圍內所生產的資料。尤其在跨境資料傳輸的背景下,一個國家是否能保障其資料不被外國企業或政府擅自使用、存取或監控,是資料主權的核心問題。 生成式AI不同於傳統AI,其運作依賴大規模訓練資料與即時伺服器連接,因此資料在輸入的瞬間可能已被收錄、轉存甚至交付第三方。日本因而對生成式AI建立「安全門檻」,要求跨境工具若未經審核,即不得進入政府資料處理流程。這樣的應對策略預示了未來國際數位政治的發展趨勢:生成式AI不只是科技商品,它已成為跨國治理與地緣競爭的核心工具。 中國通過的《國家情報法》賦予政府調閱私人企業資料的權力,使得中國境內所開發的生成式AI,儼然成為一種資訊戰略利器。若中國政府藉由DeepSeek滲透他國公部門,這將對國家安全構成潛在威脅。在此背景下,日本對公部門使用DeepSeek的管制,可被解讀為一種「數位防衛行為」,象徵著日本在數位主權議題上的前哨部署。 值得注意的是,日本在處理DeepSeek事件時,採取了「不立法限制、但公開警示」的方式來應對科技風險。此舉既避免激烈封鎖引發爭議,又對於資料的運用設下邊界。由於法令規範之制定曠日費時,為避免立法前可能產生之風險,日本先以軟性之限制與推廣手段以防止危害擴大。 台灣雖與日本同處地緣政治的敏感地帶,資料主權議題對社會影響深遠,為使我國可在尚未有立法規範之狀態下,參考日本所採之行政命令內控與公開說明外宣雙向並行之策略,對台灣或許是一種可行的借鏡模式。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]個人情報保護委員会,DeepSeekに関する情報提供,https://www.ppc.go.jp/news/careful_information/250203_alert_deepseek/ (最後瀏覽日:2025/05/06)。 [2]《中华人民共和国国家情报法》第7条第1项:「任何组织和公民都应当依法支持、协助和配合国家情报工作,保守所知悉的国家情报工作秘密。」 [3]デジタル社会推進会議幹事会事務局,DeepSeek等の生成AIの業務利用に関する注意喚起(事務連絡),https://www.digital.go.jp/assets/contents/node/basic_page/field_ref_resources/d2a5bbd2-ae8f-450c-adaa-33979181d26a/e7bfeba7/20250206_councils_social-promotion-executive_outline_01.pdf (最後瀏覽日:2025/05/06)。 [4]デジタル庁,平大臣記者会見(令和7年2月7日),https://www.digital.go.jp/speech/minister-250207-01 (最後瀏覽日:2025/05/06)。 [5]Plus Web3 media,日本政府、ディープシークを一律禁止せず 「各機関が可否を判断する」,https://plus-web3.com/media/500ds/?utm_source=chatgpt.com (最後瀏覽日:2025/05/06)。

美國專利商標局結束專利申請審查後試行程序

  美國專利商標局(United States Patent and Trademark Office, USPTO)於2017年1月12日宣布其不再依其審查後試行程序(Post-Prosecution Pilot Program, P3 Program)受理新的案件。該程序係用以使發明人在專利申請程序受到駁回以後得提出更多回饋意見,以期減少上訴至專利審判暨上訴委員會(Patent Trial and Appeal Board, PTAB)之數量。   該程序係在2016年7月11日公布施行,在該程序中,申請人在最終駁回做成後兩個月內得請求召開聽證;申請人得對審查員進行20分鐘內之口頭簡報。簡報進行完畢以後,申請人即被排除於會議之外,審查委員之裁決將會以書面之形式通知申請人。   在P3程序創設以前,專利申請被駁回的發明人得採取上訴前先期審查會議試行計畫(Pre-Appeal Brief Conference Pilot Program)或是最終審議後試行程序2.0(After Final Consideration Pilot 2.0, AFCP2.0)的方式提出明顯錯誤的爭執或是申請內容的修改,但這兩種申訴方式並無法讓申請人取得直接向專利審查員進行簡報的機會。   在2016年7月11日公布本項試行程序時,USPTO即宣布本項計畫試行時間直到2017年1月12日,或是USPTO受理1600位合格申請為止,在本計畫按照預定時程結束後,USPTO表示將會依公眾回饋意見以及試行程序的結果來決定未來是否會施行類似於本計畫之措施。

運作技術成熟度(Technology Readiness Level)進行技術評估

運作技術成熟度(Technology Readiness Level)進行技術評估 資策會科技法律研究所 法律研究員 羅育如 104年10月22日 壹、前言   為提升我國科技競爭力,於1999年制定科學技術基本法(以下簡稱科技基本法),透過科技基本法的規定,使原本歸屬國有財產之研發成果,得以下放歸屬執行單位所有,使大學對研發成果能有更完善應用之權利。   科技基本法實施之後,各研究單位開始學習國外經驗,積極進行產學合作,將內部之研發成果技術移轉與外部產業。但是,科技基本法實行已15年的今日,各界逐漸發現,政府經費之投入與研發成果產出之經濟效益有相當大的差距。例如科技部102年專題研究計畫補助經費為215億新台幣,但僅創造3.5億新台幣之衍生成果技術移轉權利金[1]。政府經費投入與產出不符預期的議題,牽涉多元層面問題,但是從新設立政府計畫案之目標與KPI,可以發現政府新創設之補助計畫開始以協助技術商業化作為主要目的,例如萌芽計畫、產學計畫等。   技術商業化操作模式會依據技術成熟度不同而有所差異,技術成熟度高的項目,廠商承接後所需要投入的研發成果可能較低,直接協助廠商改善生產流程或是成為產品商品化的機率較高;反之,廠商則需要投入較多的技術研發費用,需要花費較多的人力與資源,技術才有機會商品化。   由此可知,在技術商業化計畫推廣時,技術項目的技術成熟度是一個重要的評估關鍵。本文針對技術成熟度的評估指標詳細說明,以提供執行技術商業化計畫時,評估技術項目之參考。以下會分別說明何謂技術成熟度以及技術成熟度如何運用,最後會有結論與建議。 貳、技術成熟度說明   技術成熟度或稱為技術準備度(Technology Readiness Level;簡稱TRL)是美國太空總署(NASA)使用多年的技術評估方法,後來為美國國防部所用,再廣為國際各政府機構、學研單位、企業機構使用。   TRL是一個系統化的量尺/衡量指標,可以讓不同型態的技術有一致性的衡量標準,描述技術從萌芽狀態到成功應用於某項產品的完整流程[2]。而TRL涵蓋的技術研發流程則包括四個部分:(1)概念發展:新技術或是新概念的基礎研究,涵蓋TRL1~3;(2)原型驗證:特定技術針對一項或是多項潛在應用的技術開發,涵蓋TRL4與5;(3)系統開發:在某一應用尚未成為一整套系統之前的技術開發以及技術驗證,然後進行系統開發,涵蓋TRL6;(4)系統上市並運作[3],涵蓋TRL7~9。以下分別說明TRL每個衡量尺度的定義[4]。 TRL 1 基礎科學研究成果轉譯為應用研究。 TRL 2 為某項特殊技術、某項材料的特性等,找出潛在創新應用;此階段仍然是猜測或推論,並無實驗證據支持。 TRL 3 在適當的應用情境或載具下,實驗分析以驗證該技術或材料相關物理、化學、生物等特性,並證明潛在創新應用的可行性(proof-of-concept)。 TRL 4 接續可行性研究之後,該技術元素應整合成具體元件,並以合適的驗證程序證明能達成原先設定的創新應用目標。 TRL 5 關鍵技術元件與其他支援元件整合為完整的系統/系系統/模組,在模擬或接近真實的場域驗證。需大幅提高技術元件驗證的可信度。 TRL 6 代表性的模型/雛形系統在真實的場域測試。展示可信度的主要階段。 TRL 7 實際系統的雛形品在真實的場域測試。驅使執行TRL7的目的已超越了技術研發,而是為了確認系統工程及研發管理的自信。 TRL 8 實際系統在真實的場域測試,結果符合設定之要求。代表所有技術皆已整合在此實際系統。 TRL 9 實際系統在真實場域達成目標。 參、技術成熟度應用   技術成熟度可以單純拿來衡量技術開發階段、可用來衡量技術開發風險、也可作為研發機構角色以及補助計畫定位的參考,以下說明。 一.技術成熟度用來衡量技術開發階段   這是技術成熟度最單純的應用方法,但因為每種技術領域都可其特殊的技術開發脈絡,所以可以根據NASA原有的技術成熟度,修改成貼近該技術領域需求的技術成熟度指標。目前有看過軟硬體TRL指標、綠能&能源TRL指標、ICT TRL指標、生醫(新藥、生物製劑、醫材)TRL指標等[5]。 二、技術成熟度用來管理技術研發風險   研究開發需投入大量的人力、物力,而研究成果的不確定性又很高,所以需要有良好的技術研發管理。技術成熟度對技術研發管理而言,是風險的概念,一般而言,TRL階段與技術風險是反向關係,也就是說TRL階段越高,技術風險越低[6]。   需要考慮的面向包括[7] ,(1)現在技術成熟度在哪一階段?以及我們投入研發後,希望達到的技術成熟度目標為何?(2)從現在的技術成熟度到專案需要的技術成熟度,要精進這項技術到底有多難?(3)這項特定技術如果開發成功,對於全面技術目標而言的重要性如何? 三、機構角色以及補助計畫定位   TRL指標可用來明確區分研發機構角色定位,例如工研院內部運用TRL指標做為技術判斷量化評估指標,並且工研院需將技術成熟度提升到TRL6或7,以克服技術面的問題,進行小型試量產,才能跨越死亡之谷讓業界接手商業化[8]。   TRL指標也可以用來區分補助計畫的標的範圍,例如美國國防部傾向投資TRL 4階段技術,美國國防部培養TRL4以及4以下的技術到TRL6階段,使得這些技術能更順利的進入技術市場,其原因在於TRL程度越低,成功商品化的不確定性以及風險就越高,而TRL4階段技術項目,是美國國防部可以承受的風險程度[9]。 肆、結論   TRL指標現在已被廣泛的運用在技術評估工作上,透過量化的指標,協助研發人員或是技術管理人員方便掌握每個技術開發案的現況,例如現在技術在TRL哪個階段,技術開發結束後,TRL預計會到達哪個階段。確定目標之後,就可以進一步評估這個計畫開發案的風險並評估組織需投入的資源。   TRL是一個簡易的技術評估指標,但如果要以此做出全面性的技術策略,似乎就還是有所不足,因此,可以再搭配其他技術評估變項,發展為全面性的技術風險管理評估指標,可能可以搭配技術開發困難度指標,用以評估TRL往上提升一級的困難度程度[10],也可以搭配技術需求價值指標[11],這項技術順利成功的話,對整個系統開發而言的價值高低,價值非常高的話,就值得花更多資源與人力去投資。   由此可知,應該可以積極運用TRL指標,用來評估政府技術補助計畫,協助大學技轉辦公室管理各研發團隊之技術開發進程,也可提供技術移轉潛在廠商清楚設定技術規格,減低技術供給方與技術需求方之間的認知差異,進而提升技術移轉成功率,也就可以拉近政府經費投入與研發成果產出的差距。 [1] 行政院國家科學委員會,行政院國家科學委員會102年年報,頁24、98(2013),http://www.most.gov.tw/yearbook/102/bookfile/ch/index.html#98/z,最後瀏覽日2015/07/21。 [2] John C. Mankins, NASA, Technology Readiness Levels: A White Paper (1995). [3] id. [4] US DEPARTMENT OF DEFENSE (DoD), Technology Readiness Assessment (TRA) Guidance (2011), http://www.acq.osd.mil/chieftechnologist/publications/docs/TRA2011.pdf (last visited July 22, 2015). [5] Lewis Chen,<Technology Readiness Level>,工研院網站,http://www.sti.or.th/th/images/stories/files/(3)ITRI_TRL.pdf (最後瀏覽日:2015/07/22)。 [6] Ricardo Valerdi & Ron J. Kohl, An Approach to Technology Risk Management (2004), http://web.mit.edu/rvalerdi/www/TRL%20paper%20ESD%20Valerdi%20Kohl.pdf (last visited July 22, 2015). [7] John C. Mankins, Technology Readiness and Risk Assessments: A New Approach, ACTA ASTRONAUTICA, 65, 1213, 1208-1215 (2009). [8] 邱家瑜、蔡誠中、陳禹傑、高皓禎、洪翊恩,<工研院董事長蔡清彥 以新創事業連結全球市場 開創屬於年輕人的大時代>,台灣玉山科技協會,http://www.mjtaiwan.org.tw/pages/?Ipg=1007&showPg=1325 (最後瀏覽日:2015/07/22)。 [9] Ricardo Valerdi & Ron J. Kohl, Massachusetts Institute of Technology, An Approach to Technology Risk Management, http://web.mit.edu/rvalerdi/www/TRL%20paper%20ESD%20Valerdi%20Kohl.pdf (last visited July 21, 2015). [10] 同註7。 [11] 同註7。

法國國家資訊自由委員會將推出符合GDPR的人工智慧操作指引(AI how-to sheets)

法國國家資訊自由委員會(CNIL)於2023年10月16日至11月16日進行「人工智慧操作指引」(AI how-to sheets)(下稱本指引)公眾諮詢,並宣布將於2024年初提出正式版本。本指引主要說明AI系統資料集建立與利用符合歐盟一般資料保護規則(GDPR)之作法,以期在支持人工智慧專業人士創新之外,同時能兼顧民眾權利。 人工智慧操作指引主要內容整理如下: 1.指引涵蓋範圍:本指引限於AI開發階段(development phase),不包含應用階段(deployment phase)。開發階段進一步可分為三階段,包括AI系統設計、資料蒐集與資料庫建立,以及AI系統學習與訓練。 2.法律適用:當資料處理過程中包含個人資料時,人工智慧系統的開發與設計都必須確定其適用的法律規範為何。 3.定義利用目的:CNIL強調蒐集及處理個資時應該遵守「明確」、「合法」、「易懂」之原則,由於資料應該是基於特定且合法的目的而蒐集的,因此不得以與最初目的不相符的方式進一步處理資料。故明確界定人工智慧系統之目的為何,方能決定GDPR與其他原則之適用。 4.系統提供者的身分:可能會是GDPR中的為資料控管者(data controller)、共同控管者(joint controller)以及資料處理者(data processor)。 5.確保資料處理之合法性:建立AI系統的組織使用的資料集若包含個人資料,必須確保資料分析與處理操作符合GDPR規定。 6.必要時進行資料保護影響評估(DIPA)。 7.在系統設計時將資料保護納入考慮:包含建立系統主要目標、技術架構、識別資料來源與嚴格篩選使用…等等。 8.資料蒐集與管理時皆須考慮資料保護:具體作法包含資料蒐集須符合GDPR、糾正錯誤、解決缺失值、整合個資保護措施、監控所蒐集之資料、蒐集之目的,以及設定明確的資料保留期限,實施適當的技術和組織措施以確保資料安全等。 對於AI相關產業從事人員來說,更新AI相關規範知識非常重要,CNIL的人工智慧操作指引將可協助增強AI產業對於個資處理複雜法律問題的理解。

TOP