英國數位文化媒體暨體育部發布數位身分之公眾諮詢,發布法制政策回應並揭示相關原則

  英國數位文化媒體暨體育部(Department for Digital, Culture, Media and Sport, DCMS)2020年9月1日發布「數位身分:政府諮詢回應」(Digital Identity: Call for Evidence Response)文件,以回應過去英國政府曾於2019年7月向各界蒐集如何為成長中的數位經濟社會建立數位身分系統之意見。依據諮詢意見之成果,英國政府計畫調修現行法規,使相關身分識別流程以最大化容許數位身分之使用,並發展有關數位身分之消費者保護立法;立法中將特別規範個人之權利、如何賠償可能產生的侵害,以及設定監督者等相關內容。數位身分策略委員會(Digital Identity Strategy Board)並提出六項原則,以加強英國之數位身分布建與政策:

  1. 隱私:當個人資料被使用時,應確保具備相關措施以保障其保密性與隱私;
  2. 透明性:當個人身分資訊於使用數位身分產品而被利用時,必須確保使用者可了解其個資被誰、因何原因,以及在何時被利用;
  3. 包容性:當人們希望或需要數位身分時即可取得。例如不備有護照或駕照等紙本文件時,對於其取得數位身分不應產生障礙;
  4. 互通性(interoperability):應設定英國之技術與運作標準,使國際與國內之使用上可互通;
  5. 比例性:使用者需求與其他因素(如隱私與安全)之考量應可平衡,使數位身分之使用可被信賴;
  6. 良好監理:數位身分標準將與政府政策與法令連結,未來之相關規範將更加明確、一致並可配合政府對於數位管制之整體策略。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 英國數位文化媒體暨體育部發布數位身分之公眾諮詢,發布法制政策回應並揭示相關原則, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8575&no=67&tp=1 (最後瀏覽日:2026/02/14)
引註此篇文章
你可能還會想看
美國FTC警告科技公司,不應迫於外國勢力而削弱對消費者之隱私與資料安全保障

美國聯邦貿易委員會(Federal Trade Commission)主席Andrew N. Ferguson於2025年8月21日發信給13家科技公司,其中包含Alphabet、Amazon、Apple、Microsoft、Meta、X等國際知名科技公司,警告他們有義務保護美國消費者隱私與資料安全,若在外國政府施壓下審查美國公民的資料,將有違反《聯邦貿易委員會法》(Federal Trade Commission Act, FTC Act)之虞。 信中指出,科技公司可能為遵循外國法規或迫於外國政府壓力,削弱對美國公民的隱私及資料安全保護。如歐盟《數位服務法》(Digital Services Act)、英國《網路安全法》(Online Safety Act)期望科技公司審查用戶言論內容;而英國《調查權力法》(Investigatory Powers Act)則為滿足英國政府取得用戶儲存資料之目的,要求科技公司削弱原本對用戶採行之點對點加密措施。Ferguson主席更表示:「外國勢力審查及削弱加密措施等行動,將侵害美國公民的自由或使美國公民遭受各種危害,例如受外國政府監視、增加身分盜用與詐騙風險」。 信中亦提及,科技公司在遵守外國法律及相關要求的同時,仍須遵守FTC Act第5條規定,亦即禁止企業在市場中進行不公平或欺騙性行為的規定。同時也表示,過去20年來,FTC已對未能履行消費者資料安全或隱私承諾之公司提起數十起訴訟,並將持續要求蒐集、使用、分享或傳輸消費者個人資料的公司,應採取合理的安全措施,藉此確保消費者權益。

運作技術成熟度(Technology Readiness Level)進行技術評估

運作技術成熟度(Technology Readiness Level)進行技術評估 資策會科技法律研究所 法律研究員 羅育如 104年10月22日 壹、前言   為提升我國科技競爭力,於1999年制定科學技術基本法(以下簡稱科技基本法),透過科技基本法的規定,使原本歸屬國有財產之研發成果,得以下放歸屬執行單位所有,使大學對研發成果能有更完善應用之權利。   科技基本法實施之後,各研究單位開始學習國外經驗,積極進行產學合作,將內部之研發成果技術移轉與外部產業。但是,科技基本法實行已15年的今日,各界逐漸發現,政府經費之投入與研發成果產出之經濟效益有相當大的差距。例如科技部102年專題研究計畫補助經費為215億新台幣,但僅創造3.5億新台幣之衍生成果技術移轉權利金[1]。政府經費投入與產出不符預期的議題,牽涉多元層面問題,但是從新設立政府計畫案之目標與KPI,可以發現政府新創設之補助計畫開始以協助技術商業化作為主要目的,例如萌芽計畫、產學計畫等。   技術商業化操作模式會依據技術成熟度不同而有所差異,技術成熟度高的項目,廠商承接後所需要投入的研發成果可能較低,直接協助廠商改善生產流程或是成為產品商品化的機率較高;反之,廠商則需要投入較多的技術研發費用,需要花費較多的人力與資源,技術才有機會商品化。   由此可知,在技術商業化計畫推廣時,技術項目的技術成熟度是一個重要的評估關鍵。本文針對技術成熟度的評估指標詳細說明,以提供執行技術商業化計畫時,評估技術項目之參考。以下會分別說明何謂技術成熟度以及技術成熟度如何運用,最後會有結論與建議。 貳、技術成熟度說明   技術成熟度或稱為技術準備度(Technology Readiness Level;簡稱TRL)是美國太空總署(NASA)使用多年的技術評估方法,後來為美國國防部所用,再廣為國際各政府機構、學研單位、企業機構使用。   TRL是一個系統化的量尺/衡量指標,可以讓不同型態的技術有一致性的衡量標準,描述技術從萌芽狀態到成功應用於某項產品的完整流程[2]。而TRL涵蓋的技術研發流程則包括四個部分:(1)概念發展:新技術或是新概念的基礎研究,涵蓋TRL1~3;(2)原型驗證:特定技術針對一項或是多項潛在應用的技術開發,涵蓋TRL4與5;(3)系統開發:在某一應用尚未成為一整套系統之前的技術開發以及技術驗證,然後進行系統開發,涵蓋TRL6;(4)系統上市並運作[3],涵蓋TRL7~9。以下分別說明TRL每個衡量尺度的定義[4]。 TRL 1 基礎科學研究成果轉譯為應用研究。 TRL 2 為某項特殊技術、某項材料的特性等,找出潛在創新應用;此階段仍然是猜測或推論,並無實驗證據支持。 TRL 3 在適當的應用情境或載具下,實驗分析以驗證該技術或材料相關物理、化學、生物等特性,並證明潛在創新應用的可行性(proof-of-concept)。 TRL 4 接續可行性研究之後,該技術元素應整合成具體元件,並以合適的驗證程序證明能達成原先設定的創新應用目標。 TRL 5 關鍵技術元件與其他支援元件整合為完整的系統/系系統/模組,在模擬或接近真實的場域驗證。需大幅提高技術元件驗證的可信度。 TRL 6 代表性的模型/雛形系統在真實的場域測試。展示可信度的主要階段。 TRL 7 實際系統的雛形品在真實的場域測試。驅使執行TRL7的目的已超越了技術研發,而是為了確認系統工程及研發管理的自信。 TRL 8 實際系統在真實的場域測試,結果符合設定之要求。代表所有技術皆已整合在此實際系統。 TRL 9 實際系統在真實場域達成目標。 參、技術成熟度應用   技術成熟度可以單純拿來衡量技術開發階段、可用來衡量技術開發風險、也可作為研發機構角色以及補助計畫定位的參考,以下說明。 一.技術成熟度用來衡量技術開發階段   這是技術成熟度最單純的應用方法,但因為每種技術領域都可其特殊的技術開發脈絡,所以可以根據NASA原有的技術成熟度,修改成貼近該技術領域需求的技術成熟度指標。目前有看過軟硬體TRL指標、綠能&能源TRL指標、ICT TRL指標、生醫(新藥、生物製劑、醫材)TRL指標等[5]。 二、技術成熟度用來管理技術研發風險   研究開發需投入大量的人力、物力,而研究成果的不確定性又很高,所以需要有良好的技術研發管理。技術成熟度對技術研發管理而言,是風險的概念,一般而言,TRL階段與技術風險是反向關係,也就是說TRL階段越高,技術風險越低[6]。   需要考慮的面向包括[7] ,(1)現在技術成熟度在哪一階段?以及我們投入研發後,希望達到的技術成熟度目標為何?(2)從現在的技術成熟度到專案需要的技術成熟度,要精進這項技術到底有多難?(3)這項特定技術如果開發成功,對於全面技術目標而言的重要性如何? 三、機構角色以及補助計畫定位   TRL指標可用來明確區分研發機構角色定位,例如工研院內部運用TRL指標做為技術判斷量化評估指標,並且工研院需將技術成熟度提升到TRL6或7,以克服技術面的問題,進行小型試量產,才能跨越死亡之谷讓業界接手商業化[8]。   TRL指標也可以用來區分補助計畫的標的範圍,例如美國國防部傾向投資TRL 4階段技術,美國國防部培養TRL4以及4以下的技術到TRL6階段,使得這些技術能更順利的進入技術市場,其原因在於TRL程度越低,成功商品化的不確定性以及風險就越高,而TRL4階段技術項目,是美國國防部可以承受的風險程度[9]。 肆、結論   TRL指標現在已被廣泛的運用在技術評估工作上,透過量化的指標,協助研發人員或是技術管理人員方便掌握每個技術開發案的現況,例如現在技術在TRL哪個階段,技術開發結束後,TRL預計會到達哪個階段。確定目標之後,就可以進一步評估這個計畫開發案的風險並評估組織需投入的資源。   TRL是一個簡易的技術評估指標,但如果要以此做出全面性的技術策略,似乎就還是有所不足,因此,可以再搭配其他技術評估變項,發展為全面性的技術風險管理評估指標,可能可以搭配技術開發困難度指標,用以評估TRL往上提升一級的困難度程度[10],也可以搭配技術需求價值指標[11],這項技術順利成功的話,對整個系統開發而言的價值高低,價值非常高的話,就值得花更多資源與人力去投資。   由此可知,應該可以積極運用TRL指標,用來評估政府技術補助計畫,協助大學技轉辦公室管理各研發團隊之技術開發進程,也可提供技術移轉潛在廠商清楚設定技術規格,減低技術供給方與技術需求方之間的認知差異,進而提升技術移轉成功率,也就可以拉近政府經費投入與研發成果產出的差距。 [1] 行政院國家科學委員會,行政院國家科學委員會102年年報,頁24、98(2013),http://www.most.gov.tw/yearbook/102/bookfile/ch/index.html#98/z,最後瀏覽日2015/07/21。 [2] John C. Mankins, NASA, Technology Readiness Levels: A White Paper (1995). [3] id. [4] US DEPARTMENT OF DEFENSE (DoD), Technology Readiness Assessment (TRA) Guidance (2011), http://www.acq.osd.mil/chieftechnologist/publications/docs/TRA2011.pdf (last visited July 22, 2015). [5] Lewis Chen,<Technology Readiness Level>,工研院網站,http://www.sti.or.th/th/images/stories/files/(3)ITRI_TRL.pdf (最後瀏覽日:2015/07/22)。 [6] Ricardo Valerdi & Ron J. Kohl, An Approach to Technology Risk Management (2004), http://web.mit.edu/rvalerdi/www/TRL%20paper%20ESD%20Valerdi%20Kohl.pdf (last visited July 22, 2015). [7] John C. Mankins, Technology Readiness and Risk Assessments: A New Approach, ACTA ASTRONAUTICA, 65, 1213, 1208-1215 (2009). [8] 邱家瑜、蔡誠中、陳禹傑、高皓禎、洪翊恩,<工研院董事長蔡清彥 以新創事業連結全球市場 開創屬於年輕人的大時代>,台灣玉山科技協會,http://www.mjtaiwan.org.tw/pages/?Ipg=1007&showPg=1325 (最後瀏覽日:2015/07/22)。 [9] Ricardo Valerdi & Ron J. Kohl, Massachusetts Institute of Technology, An Approach to Technology Risk Management, http://web.mit.edu/rvalerdi/www/TRL%20paper%20ESD%20Valerdi%20Kohl.pdf (last visited July 21, 2015). [10] 同註7。 [11] 同註7。

日本預計2019年10月起於東京、大阪實行智財調解制度

  根據日本特許廳調查,國際(如韓國,泰國)在處理智財爭議時,往往會傾向採取非訟的方式解決智財爭議,例如透過智財局進行智財調解。日本也預計在2019年10月1日起於東京及大阪兩地的地方法院導入新的智財調解制度,用以快速解決智財(例如專利權,著作權等)相關爭議。   普遍而言智財爭議往往會耗費企業或當事人相當長的時間,且爭議的智財標的在訴訟期間也無法被使用,故日本政府計劃推行新的智財調解制度。新的智財調解制度,除了能降低訴訟成本外,日本政府更迫切想解決的問題是,不希望爭議的智財標的影響企業經營。   在日本智財訴訟是公開,法官在聽過兩造說法後會由法官做單方面的判決,且根據日本最高法院的資料顯示,智財訴訟平均需花費十二點九個月的時間才能結案。有的從訴訟提起到一審宣判就需花費一年又八個月,再到最高法院判決確定還需花費一年又二兩個月。   而日本新推行的智財調解制度計畫將透過視訊的方式,讓當事人與法官進行非公開的對話,並儘量促成兩造達成合意,調解過程最短僅需花費約三個月的時間就能有結果,若調解沒有共識,當事人一樣能進行智財訴訟。智財調解制度除了能有效減少爭議時間外,費用上智財調解申請費也遠低於智財訴訟的申請費。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限

用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).

TOP