OECD發布《數位化推進資料治理以促進增長和福祉》、《資料治理政策制定之數位化指南》報告

2023年5、6月經濟合作暨發展組織(Organisation for Economic Cooperation and Development, OECD)在邁向數位化計畫(Going digital Project)下陸續公布53個國家地區科學技術創新政策(science, technology and innovation policy)指標。OECD另一方面也提供許多政策工具供各政府參考,如2022年12月發布《數位化推進資料治理以促進增長和福祉》(Going Digital to Advance Data Governance for Growth and Well-being),並出版《資料治理政策制定之數位化指南》(Going Digital Guide to Data Governance Policy Making),協助應對轉型為數位治理時的潛在益處與風險。

《數位化推進資料治理以促進增長和福祉》指出,數位工具發展使資料蒐集、處理的效能大幅增加,邊際成本快速下降,為經濟、社會注入新驅動力。OECD觀察到COVID-19疫情危機中,各國政府藉多樣的資料有效追蹤疾病並做出相應對策;然而,也出現資料治理不當案例,如有勞動中介機構不慎在資料應用時加深性別勞動的不平等。因此,資料成為治理的戰略資產同時也需詳加了解資料多樣化的特性,在資料跨領域產製、流通與利用的過程中一併考量其益處與風險。

《資料治理政策制定之數位化指南》則點出三個發現,並提供相應策略做為各國政府治理參考。第一,關切資料開放同步產生的益處與風險,建議應確立風險管理的文化並建置透明且開放的資料生態系,以增加使用者的能動性,俾利人們自覺主動利用資料。其次,治理框架應平衡生態系中利害交疊的人民、企業團體、政府各部門等,藉契約範本、行為準則等機制確保決策各環節中利害關係人的參與機會和框架的一致性。第三,資料的邊際成本雖一再降低,然而進入門檻、後續管理的負擔仍重,政府應持續激勵資料的基礎建設投資,促進市場競爭並解決後進者的阻礙。

相關連結
你可能會想參加
※ OECD發布《數位化推進資料治理以促進增長和福祉》、《資料治理政策制定之數位化指南》報告, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=9016&no=67&tp=1 (最後瀏覽日:2026/04/15)
引註此篇文章
你可能還會想看
比利時法院對網路搜尋引擎巨擘被控侵害著作權乙案,判決Google敗訴

  比利時法院針對報業出版組織Copiepresse控告網路搜尋引擎巨擘Google侵害著作權一案,於二月十三日做出一審判決。該法院認為 Google未取得授權,在Google News新聞搜尋之服務中片斷重製原告之報導內容,並以重製的方式將受到保護之著作傳播給公眾,該行為已侵害到Copiepresse之著作權。法院除了下令Google刪除搜尋引擎中所出現的新聞報導片斷,並按該網站刊登的時間為基準,計算一天兩萬五千歐元的賠償金,Google應給付總金額高達三百四十五萬歐元的賠償金於Copiepresse。   Google的主要答辯指出,其係為協助使用者在該網站上尋找資訊的搜尋引擎,而非擁有自己資訊的入口網站。Google News也只針對使用者所輸入之搜尋關鍵字所做出之新聞頭條匯集及文章聯結,該行為應受到著作權法中「合理使用」(Fair Use) 之保護。而對搜尋結果之頭條、內容片斷及縮小圖片顯示,Google則抗辯此一作法已替Copiepresse網站吸引來更多想要閱讀全文之讀者,並為其締造更高的網路流量。   Copiepresse則主張,Google因在其網站刊登片斷重製之報導內容而受有廣告收益,就法律面而言已是侵害行為所得之利益。該組織的報導內容出現在Google的快取頁面,已使得該片斷的報導內容得自Google的網站中免費取得。通常許多報業僅將其報導文章的資料庫提供給付費會員瀏覽。   對此判決結果,Google已決定上訴。   全球媒體業者都對此判決密切注意。Google去年八月已和美聯社達成和解。而法國法新社去年三月控告Google的快取網頁侵害著作權乙案,目前仍在法院審理中。而其它入口網站公司YAHOO! 、AOL、Microsoft等已付費於法新社取得授權刊登其新聞文章內容。

日本內閣府公布生成式AI初步意見彙整文件,提出風險因應、應用及開發兩大關注重點

日本內閣府於2023年5月26日召開第2次「AI戰略會議」(AI戦略会議),並公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理)。鑒於AI對於改善國人生活品質、提高生產力無疑有相當助益,考量生成式AI甫問世,社會大眾對其潛在風險尚心存疑慮,內閣府遂以生成式AI為核心,延續先前已公布之「AI戰略2022」(AI 戦略 2022)、「以人為中心的AI社會原則」(人間中心の AI 社会原則),以「G7廣島峰會」(G7広島サミット)所提出之願景—「符合共同民主價值的值得信賴AI」為目標,提出「風險因應」及「應用與開發」兩大關注重點,供政府有關部門參考之同時,並期待可激起各界對於生成式AI相關議題之關注與討論: 一、風險因應:AI開發者、服務提供者與使用者應自行評估風險並確實遵守法規及相關指引;政府則應針對風險應對框架進行檢討,對於已知的風險,應先以現有的法律制度、指引與機制進行處理,假如現有法制等無法完全因應這些風險,則應參考各國作法盡速對現行制度進行修正。 AI的透明度與可信賴度於風險因應至關重要。若能掌握AI學習使用哪些資料、所學習資料之來源、AI如何產生結果等,就能針對使用目的選擇適合的AI,也較易因應發生之問題,並避免AI產生錯誤結果或在對話中洩漏機密資訊等。對此,本文件呼籲AI開發者及服務提供者依據現行法令和指引主動揭露資訊,政府則應對透明度和可信賴度相關要求進行檢討,並應依普及程度及各國動向對既有的指引進行必要之修正。 二、應用與開發:本文件建議政府部門積極使用生成式AI於業務工作上,找出提升行政效率同時不會洩漏機密之方法,並向民眾宣導AI應用之益處與正確的使用方式,以培養民眾AI相關技能與素養,藉以更進一步建構AI應用與開發之框架,如人才培育、產業環境準備、相關軟硬體開發等。

英國Ofcom準備展開全國性的WhiteSpace測試應用

  為了增進無線頻譜的使用效率,各國紛紛針對閒置頻譜(White Space)的應用進行討論與發展,除美國已經制定出相關的技術參數與管制規則,並展開全國性的測試外,英國也在多次的公開諮詢與規則修訂後,準備展開全國性的測試應用。   閒置頻譜係指已經指配於特定用途之無線頻段,但因各種因素(如地理地形、人口分布),而在部分地區閒置未使用(即獲得頻譜使用權之業者,在當地並未提供訊號覆蓋);或者因避免頻譜間訊號干擾,而特意保留的空白區塊(以電視頻道為例,為了避免訊號互相干擾,故於頻道1與頻道3播送電視節目,而頻道2則保留空白。)由於無線通訊技術的提升,可藉由天線高度、訊號發射功率、與主要基地臺保持距離等方式,將這些閒置的頻譜區塊進行利用。   由於閒置頻譜屬於已經指配用途、發出執照的頻段,故存在著眾多的既有使用者,閒置頻譜的開放使用必須保障既有使用者不受到有害干擾。英國在2010年至2012年間已經進行多次的公開諮詢與技術發展,故相關的技術參數與管理規則已經原則上確定,但因配合歐盟整體的頻譜政策規劃,故仍暫時不開放商業使用,為了進一步確定White Space在英國的可用性,也為了測試對既有服務的干擾程度,Ofcom決定展開全國性的測試。   本次干擾測試的重點有三: 1. 針對節目製作與特殊事件(program making and special events,PMSE):PMSE泛指獲得無線頻譜使用執照的既有使用者,可能使用無線麥克風、無線攝影機或戶外無線廣播裝置,因此White Space的開放,必須避免對這些既有的使用者造成有害干擾。 2. 數位地面電視(digital terrestrial television,DTT):DTT是無線數位電視,也是最重要的既有使用者,White Space的開放除必須遵照嚴格的技術參數外,也必須避開無線電視台的發射站。 3. 其他鄰近UHF電視頻段的無線服務。   Ofcom指出,各地閒置頻譜的情況不同,如在倫敦地區,對DTT的干擾較低,但格拉斯哥(Glasgow)則相反;而在PMSE的部分,倫敦市中心(如溫布敦球場)則有相當多的節目轉播、無線廣播的使用。Ofcom計畫透過本次測試,瞭解英國各地White Space的使用潛力,屆時將收集英國各地的試點與服務業者的服務品質、功率設定、區域大小與可用的時段,以確保不會發生有害的干擾,整體試驗將持續至2014年夏季。

南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引

南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。 在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。 為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。 指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。 針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。 而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。 最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。 該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。

TOP