日本公布資料管理框架,促進資料加值應用

  日本經濟產業省2022年4月8日公布「協調性資料加值運用之資料管理框架-透過確保資料可信度創造資料價值之新路徑」(協調的なデータ利活用に向けたデータマネジメント・フレームワーク~データによる価値創造の信頼性確保に向けた新たなアプローチ),提示確保資料可信度之方法。經濟產業省於2019年7月31日設立「第3層︰網路空間信賴性確保之安全對策檢討工作小組」(『第3層:サイバー空間におけるつながり』の信頼性確保に向けたセキュリティ対策検討タスクフォース」,以下簡稱工作小組),討論確保資料可信度之要件,以利資料在網路空間內自由流通,並藉由資料創造出新的附加價值。

  工作小組為確保資料可信度,首先定義資料管理為「將資料屬性依據其所涉之法令或組織規章,以及因蒐集、處理、利用、移轉等活動而改變之過程,視為一個生命週期加以管理」,並認為資料管理會受到屬性(資料性質,如內容、揭露範圍、利用目的、資料管理主體、資料權利者等)、場域(針對資料之特定規範,如各國、地區法令、組織內部規定、組織間契約等)及事件(產生、改變及維持資料屬性之事件,如生產、蒐集、處理、移轉、提供、儲存、刪除)等三大要素影響,並據此建立資料管理模型。

  工作小組期待藉由上述三大要素,依序透過讓資料處理流程(事件)處於容易被觀察的狀態、整理所涉及之相關規範(場域),以及判斷資料屬性等步驟,讓利害關係人之間可更容易進行資料共享及資料治理。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 日本公布資料管理框架,促進資料加值應用, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8821&no=64&tp=1 (最後瀏覽日:2026/02/13)
引註此篇文章
科法觀點
你可能還會想看
新加坡無人車測試之法制配套評析

新加坡無人車測試之法制配套評析 資策會科技法律研究所 法律研究員 王凱嵐 106年07月25日 壹、前言   隨著人工智慧的發展其運用日趨多元,與之結合之「無人車」逐漸成為人們熱門關注的科技名詞。所謂無人車(Autonomous Car),其車輛外觀與一般車輛相似,利用感測器及其他科技裝備,搭配電腦運算或機器學習等技術,辨識車輛周遭環境及狀況。同時根據外部資訊如:道路、交通號誌、車輛位置、障礙物等數據做出分析判斷,由電腦控制車輛方向及速度,實現無人車輛依據自身(電腦)意圖做出擬人駕駛的動作[1]。   包括Apple[2]、Google、Uber等非傳統汽車製造產業在內,世界各地串起一場以無人車為首的交通實驗。在無人車發展面向上,美國、新加坡早已有為無人車產業發展,提出修法或補助等政策措施。與我國比鄰的韓國,其政府近來也積極推動自動駕駛技術之發展,不僅核准多家業者上路實測,更計畫打造全球最大無人車車測場地「K-City」[3]。未來我國在台北、高雄[4]等地也即將出現無人車的身影,惟目前我國相關法規仍未針對無人車詳加規範,使得無人車發展上窒礙難行。   我國科學工業園區長久以來扮演著台灣科技工業發展之重要角色,參考國際在相關領域的發展,除硬體、軟體技術上配合,尚提供良好且完善的測試場域或法規配套。本文為建構國內無人車發展環境,打造產業聚落及完備有善法制環境,參考新加坡無人車立法例,提供我國未來科學工業園區區內無人車測試及法規配套之建議參考。 貳、新加坡無人車測試之法規調適   新加坡作為典型的「城市國家」,城市規劃是亞洲甚至全球的典範,良好的交通規劃、道路狀況及相關的基礎建設,都是無人車駕駛試驗所要求的環境。新加坡政府對於無人駕駛的發展,於2014年成立專門委員會管理無人駕駛車,而新加坡陸路交通管理局(LTA[5])近年來也積極的和多家發展無人駕駛技術的廠商密切合作[6]。針對無人駕駛技術的創新與應用,未來只會有增無減,而為適應科技成就所帶來之便利及法制之衝擊,新加坡政府於2017年2月[7]通過《公路交通法修正案》(Road Traffic (Amendment) Bill)。該修正案新增針對無人車測試有關之條文(6C、6D、6E),透過法規的修正讓科技與法制間增進一些彈性與空間。以下針對此次新加坡新修《公路交通法修正案》的三項關於無人車測試的條文分別說明:   首先在條文6C[8]部分,先做初步適用範圍及相關測試規範說明。考量無人車的測試需保護社會大眾之用路安全,該法案給予主管機關相關的權限,得針對無人車測試予以限制及規範,同時明確規範在何種情況下,主管機關得取消無人車業者之測試申請(如有損公眾利益)。針對測試之限制,新增定之條文規範包含測試時之天氣[9]、測試車輛硬體設備[10]、車輛系統建置的限制(要求能隨時介入車輛之操縱)等皆為評估允許無人車測試之依據。另外,對於車輛測試業者,於測試之前政府得要求保「責任險」(Liability Insurance)或相當金額之保證金[11]。測試業者需公布實驗計畫之內容,如測試地點、時間及所屬負責人,所有的測試資料應跟主管單位陸路交通管理局分享[12]。   條文6D則是規範有關於無人車測試時責任豁免(Exemptions)的規定,在有條件或無條件情形下,根據此條文得以免除特定法規或法律[13]。然該免除責任的範圍,仍以此《公路交通法》及其附屬法規為主。新加坡在一般情形下,駕駛人於道路上發生交通事故,根據《公路交通法》將需負擔相關道路責任。不過在最新通過的《公路交通法修正案》無人車測試免責規定中,考量無人車科技無規範「人員過失」之必要,原則上將免除無人車測試相關人員之法律責任(包含駕駛人、參與測試的人員等)。若是無人車業者(測試申請人)違反或不遵守前條6C的規定及條件,則無本條免責之適用。未來無人車真正上路後,若發生故障或交通事故,本次修法並未有說明,其責任歸屬仍待討論。最後在條文6E針對於無人車測試中,有蓄意破壞或是干擾測試者,對其處與相當金額之罰鍰[14]。   整體而言,新加坡政府對於無人車態度較為積極且開放,除法規上預留彈性用以降低無人車發展測試與現行法規的衝擊,另一方面也與多間無人車公司合作,在整體產業面上提供多方面的便利。去年新加坡成為全球第一個讓無人計程車(nuTonomy)[15]上路的國家,預計在2018年,亞洲第一輛投入商業化的無人巴士也將在新加坡上路。 參、小結   隨著科技的進步,新興科技與生活的結合衝擊著現有的法制規範。調整且負有彈性的法制規範,漸漸在國際上得到重視,諸如英國、澳洲及新加坡皆推出金融業的「監理沙盒」制度或政策,我國金管會也於今年( 2017)初提出《金融科技創新實驗條例》草案,帶動金融領域新的成長與翻轉。無論是金融或非金融,法規侷限新興限科技應用的問題皆存在,從「創新、試驗」的角度,新加坡將未來無人車測試的法律依據植入《公路交通法》,針對單一領域法規進行修法,似已成功將「監理沙盒」機制從目前以金融業為主轉換到非金融領域,此作法值得我國參考。 [1] 數位時代, https://www.bnext.com.tw/search/tag/%E7%84%A1%E4%BA%BA%E8%BB%8A(最後瀏覽日:2017/07/04) [2] TechNews科技新報,<蘋果自駕車真面目,矽谷街頭試行照曝光>,2017/04/28,https://technews.tw/2017/04/28/the-lexus-that-apples-using-to-test-self-driving-car-technology/ (最後瀏覽日:2017/06/02) [3] TechNews科技新報,<加速推動自駕車發展,南韓打造全球最大自駕車測試場地>,2017/05/10,https://technews.tw/2017/05/10/south-korea-begins-development-of-test-bed-k-city-for-self-driving-cars/ (最後瀏覽日:2017/06/02) [4] TechNews科技新報,<高雄欲導入的法國EasyMile無人自駕巴士,究竟魅力何在>,2017/04/05,https://technews.tw/2017/04/05/kaohsiung-city-government-signed-mou-with-easymile-and-7starlake-2017/ (最後瀏覽日:2017/06/02) [5] Land Transport Authority, 簡稱LTA. [6] 數位時代, <為什麼新加坡能夠成為無人駕駛「重鎮」?>,2017/07/04, https://www.bnext.com.tw/article/41716/why-singapore-can-be-automated-pilot-strategic-town(最後瀏覽日:2017/07/04) [7] Parliament of Singapore, https://www.parliament.gov.sg/publications/2017 (最後瀏覽日:2017/07/04) [8] Road Traffic (Amendment)Bill, 6C. [9] 6C(1)(f)Prescribe the weather and any climatic or other circumstances when an approved trial or approved special use may or not be undertaken or carried out, as the case may be; [10] 6C(1)(g)Prescribe the construction, design or use of infrastructure technology, equipment or devices in relation to the autonomous motor vehicle or automated vehicle technology involved in the approved trial or approved special use, including requiring that the vehicle- [11] 6D(1)(b)To have in place liability insurance before the approved trial or approved special use starts, and to ensure that it is in force at all times during the period of the approved trial or approved special use; [12] 6D(1)(i)Require the keeping of records by the specified person, and the giving of information to the Authority or any other person designated by the Authority about the approved trial or approved special use undertaken or carried out, including the automated vehicle technology involved in the trial or special use; [13] 6D(1)(a)Exempt (with or without conditions) from the application of section 5 or other specified provisions of this Act or its subsidiary legislation, or any other written law, any of the following. [14] Road Traffic (Amendment)Bill, 6E [15] Inside,<第一批無人駕駛計程車新加坡上市,nuTonomy:我們才是第一>,2016/08/25,https://www.inside.com.tw/2016/08/25/nutonomy (最後瀏覽日:2017/07/18)

英國通過《資料(使用與存取)法》,提升資料使用的便利性

2025年6月19日,英國《2025年資料(使用與存取)法》(Data(Use and Access)Act 2025,下簡稱DUA法)正式生效。DUA法的宗旨是在《英國一般資料保護規則》(United Kingdom General Data Protection Regulation, UK GDPR)的基礎上,放寬在特定情形下執法機關、企業與個人使用資料的限制,以提升資料管理及使用的便利性。 DUA法預計將於2025年8月開始分階段實施,重點如下: (1) 放寬自動化決策(Automated Decision-Making, ADM)條件:依據UK GDPR規定,個人有不受純粹基於自動化處理且產生法律效果或類似重大影響之決策所拘束之權利。此項規範確立自動化決策之原則性禁止,僅於符合特定例外事由時始得為之。DUA法則放寬此一限制,未來企業只要確保有向當事人提供自動化決策的資訊、決策結果申訴的管道,以及得人為干預設計之保障措施以後,即可做出對個人有重大影響的自動化決策。 (2) 資料主體存取請求權(Subject Access Request, SAR)規範明確化:當事人有權向持有自身個資的單位請求查閱,DUA法明訂組織在收到請求後應回應的時間,而當事人請求的範圍也應合理且合於比例,避免組織浪費人力搜索不重要的資訊。 (3) 建立有效申訴管道:規定任何使用個人資料的組織都必須設立有效的申訴機制、提供電子化申訴管道、並回報處理結果,若訴求未獲得解決,當事人即可向英國資訊專員辦公室(Information Commissioner’s Office, ICO)提出申訴。 (4) 科學研究得採概括同意機制,商業研究亦屬適用範疇:DUA法明確指出,基於科學研究目的,研究人員於確保適當個人資料保護措施之前提下,得以概括同意(broad consent)方式取得當事人之同意,以利進行科學研究活動。DUA法並明確界定科學研究之範疇可涵蓋商業研究(commercial research),擴大其適用領域。 (5) 允許網站直接使用Cookie:網站與應用程式的儲存與存取技術(Storage and Access Technologies)在低風險情況下,可不取得使用者事前同意,即紀錄使用者瀏覽紀錄。 DUA法將於2025年8月開始分階段實施。如何在科技發展的便利性與個人資料的安全性間取得平衡,是當代社會不容忽視的議題,可持續觀察追蹤英國施行DUA法的成效供我國參考。

Novartis被質疑濫用美國FDA獎勵研發治療被忽視熱帶疾病藥物之制度

  國際藥廠Novartis被指控濫用美國食品藥品管理局(the U.S. Food and Drug Administration,簡稱FDA)為鼓勵藥廠投入研發被忽視疾病治療藥物所設立的一套獎勵制度。   這套制度是根據2007年美國國會所通過之美國食品藥品管理法修正案(the Food and Drug Administration Amendments Act of 2007)而創設,主要是給予向FDA申請治療其表列之被忽視熱帶疾病(例如瘧疾、血吸蟲病、利什曼病等)藥品查驗登記並獲通過之申請者一份所謂「藥品優先審查劵」(priority review voucher),讓該申請者可以用於之後所提出的人類藥品查驗登記申請,而得以享有優先審查之權利。   這個所謂「藥品優先審查劵」對於藥廠來說可說是價值非凡,因為藥品查驗登記程序正常情況往往超過10個月以上,但是適用優先審查程序之申請案,卻可以有九成左右在6個月內就獲得通過,這對於藥廠的好處在於,其可以比其他競爭者更快地將其所生產藥品上市販售。   Novartis於2009年4月獲得FDA通過其就治療瘧疾藥物Coartem之查驗登記申請,而成為適用此獎勵制度之首例並獲得「藥品優先審查劵」。Novartis的行為之所以招致批判,因為其所申請之藥物Coartem並非是針對治療瘧疾所研發出來的新藥,其從1999年起便已在部分國家被許可使用,只是該藥物在美國從未被申請查驗登記而獲准通過。由於上述獎勵制度並未言明是針對新開發之治療熱帶疾病的藥品,所以Novartis的動作可以符合其要件並獲得獎勵,但此舉卻有鑽法律漏洞之嫌。

英國發布《AI保證介紹》指引,藉由落實AI保證以降低AI系統使用風險

英國發布《AI保證介紹》指引,藉由落實AI保證以降低AI系統使用風險 資訊工業策進會科技法律研究所 2024年03月11日 人工智慧(AI)被稱作是第四次工業革命的核心,對於人們的生活形式和產業發展影響甚鉅。各國近年將AI列為重點發展的項目,陸續推動相關發展政策與規範,如歐盟《人工智慧法》(Artificial Intelligence Act, AI Act)、美國拜登總統簽署的第14110號行政命令「安全可靠且值得信賴的人工智慧開發暨使用」(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)、英國「支持創新的人工智慧監管政策白皮書」(A Pro-innovation Approach to AI Regulation)(下稱AI政策白皮書)等,各國期望發展新興技術的同時,亦能確保AI使用的安全性與公平性。 壹、事件摘要 英國科學、創新與技術部(Department for Science, Innovation and Technology,DSIT)於2024年2月12日發布《AI保證介紹》(Introduction to AI assurance)指引(下稱AI保證指引),AI保證係用於評測AI系統風險與可信度的措施,於該指引說明實施AI保證之範圍、原則與步驟,目的係為讓主管機關藉由落實AI保證,以降低AI系統使用之風險,並期望提高公眾對AI的信任。 AI保證指引係基於英國政府2023年3月發布之AI政策白皮書提出的五項跨部會AI原則所制定,五項原則分別為:安全、資安與穩健性(Safety, Security and Robustness)、適當的透明性與可解釋性(Appropriate Transparency and Explainability)、公平性(Fairness)、問責與治理(Accountability and Governance)以及可挑戰性 與補救措施(Contestability and Redress)。 貳、重點說明 AI保證指引內容包含:AI保證之適用範圍、AI保證的三大原則、執行AI保證的六項措施、評測標準以及建構AI保證的五個步驟,以下將重點介紹上開所列之規範內容: 一、AI保證之適用範圍: (一)、訓練資料(Training data):係指研發階段用於訓練AI的資料。 (二)、AI模型(AI models):係指模型會透過輸入的資料來學習某些指令與功能,以幫助建構模模型分析、解釋、預測或制定決策的能力,例如GPT-4。,如GPT-4。 (三)、AI系統(AI systems):係利用AI模型幫助、解決問題的產品、工具、應用程式或設備的系統,可包含單一模型或多個模型於一個系統中。例如ChatGPT為一個AI系統,其使用的AI模型為GPT-4。 (四)、廣泛的AI使用(Broader operational context):係指AI系統於更為廣泛的領域或主管機關中部署、使用的情形。 二、AI保證的三大原則:鑒於AI系統的複雜性,須建立AI保證措施的原則與方法,以使其有效執行。 (一)、衡量(Measure):收集AI系統運行的相關統計資料,包含AI系統於不同環境中的性能、功能及潛在風險影響的資訊;以及存取與AI系統設計、管理的相關文件,以確保AI保證的有效執行。 (二)、評測(Evaluate):根據監管指引或國際標準,評測AI系統的風險與影響,找出AI系統的問題與漏洞。 (三)、溝通(Communicate):建立溝通機制,以確保主管機關間之交流,包含調查報告、AI系統的相關資料,以及與公眾的意見徵集,並將上開資訊作為主管機關監理決策之參考依據。 三、AI保證的六項措施:主管機關可依循以下措施評測、衡量AI系統的性能與安全性,以及其是否符合法律規範。 (一)、風險評估(Risk assessment):評測AI系統於研發與部署時的風險,包含偏見、資料保護和隱私風險、使用AI技術的風險,以及是否影響主管機關聲譽等問題。 (二)、演算法-影響評估(Algorithmic-impact assessment):用於預測AI系統、產品對於環境、人權、資料保護或其他結果更廣泛的影響。 (三)、偏差審計(Bias audit):用於評估演算法系統的輸入和輸出,以評估輸入的資料、決策系統、指令或產出結果是否具有不公平偏差。 (四)、合規性審計(Compliance audit):用於審查政策、法律及相關規定之遵循情形。 (五)、合規性評估(Conformity assessment):用於評估AI系統或產品上市前的性能、安全性與風險。 (六)、型式驗證(Formal verification):係指使用數學方法驗證AI系統是否滿足技術標準。 四、評測標準:以國際標準為基礎,建立、制定AI保證的共識與評測標準,評測標準應包含以下事項: (一)、基本原則與術語(Foundational and terminological):提供共享的詞彙、術語、描述與定義,以建立各界對AI之共識。 (二)、介面與架構(Interface and architecture):定義系統之通用協調標準、格式,如互通性、基礎架構、資料管理之標準等。 (三)、衡量與測試方式(Measurement and test methods):提供評測AI系統的方法與標準,如資安標準、安全性。 (四)、流程、管理與治理(Process, management, and governance):制定明確之流程、規章與管理辦法等。 (五)、產品及性能要求(Product and performance requirements):設定具體的技術標準,確保AI產品與服務係符合規範,並透過設立安全與性能標準,以達到保護消費者與使用者之目標。 五、建構AI保證的步驟(Steps to build AI assurance) (一)、考量現有的法律規範(Consider existing regulations):英國目前雖尚未針對AI制定的法律,但於AI研發、部署時仍會涉及相關法律,如英國《2018年資料保護法》(Data Protection Act 2018)等,故執行AI保證時應遵循、考量現有之法律規範。 (二)、提升主管機關的知識技能(Upskill within your organisation):主管機關應積極了解AI系統的相關知識,並預測該機關未來業務的需求。 (三)、檢視內部風險管理問題(Review internal governance and risk management):須適時的檢視主管機關內部的管理制度,機關於執行AI保證應以內部管理制度為基礎。 (四)、尋求新的監管指引(Look out for new regulatory guidance):未來主管機關將制定具體的行業指引,並規範各領域實踐AI的原則與監管措施。 (五)、考量並參與AI標準化(Consider involvement in AI standardisation):私人企業或主管機關應一同參與AI標準化的制定與協議,尤其中小企業,可與國際標準機構合作,並參訪AI標準中心(AI Standards Hubs),以取得、實施AI標準化的相關資訊與支援。 參、事件評析 AI保證指引係基於英國於2023年發布AI政策白皮書的五項跨部會原則所制定,冀望於主管機關落實AI保證,以降低AI系統使用之風險。AI保證係透過蒐集AI系統運行的相關資料,並根據國際標準與監管指引所制定之標準,以評測AI系統的安全性與其使用之相關影響風險。 隨著AI的快速進步及應用範疇持續擴大,於各領域皆日益重要,未來各國的不同領域之主管機關亦會持續制定、推出負責領域之AI相關政策框架與指引,引導各領域AI的開發、使用與佈署者能安全的使用AI。此外,應持續關注國際間推出的政策、指引或指引等,研析國際組織與各國的標準規範,借鏡國際間之推動作法,逐步建立我國的AI相關制度與規範,帶動我國智慧科技產業的穩定發展外,同時孕育AI新興產應用的發展並打造可信賴、安全的AI使用環境。

TOP