歐盟執委會針對未來10年歐洲AI開發與開放資料運用方向等核心議題,於2020年2月19日公布一系列數位化政策提案,其中之一即為提出歐洲資料戰略(European Data Strategy)。本戰略提出資料開放共享政策與法制調適框架,宣示其目標為建構歐洲的資料單一市場(single market for data),視資料為數位轉型的核心,開放至今尚未被使用的資料。歐盟期待商界、研究者與公共部門等社群的公民、企業和組織,得透過跨域資料的蒐集與分析,改善決策的作成基礎或提升公共服務品質,為醫療或經濟等領域帶來額外利益,同時促進歐盟推動人工智慧發展及應用。
本戰略揭示了資料單一市場的建構框架,包含資料必須能在歐盟內與跨域流通並使所有人受益、全面遵守如個資保護、消費者保護與競爭法等歐盟相關規範、以及資料取用(access)和使用的規定,應平等實用且明確,並以之建立資料治理機制;同時,為在技術面強化歐洲數位空間之能力,以完善資料共享所需之資料基礎設施,應創建歐洲資料庫(European data pools),預備將來進行巨量資料分析與機器學習。在上述框架下,本戰略同時擬定了數個具體的措施與制度調修方向如下:(1)建構資料跨部門治理與取用之法規調適框架:包括於2020年第4季提出歐洲共同資料空間管理之立法框架,於2021年第1季提出高價值資料集(high-value data-sets),評估於2021年提出資料法(Data Act)以建構企業對政府或企業間的資料共享環境、調適並建立有利於資料取用之智慧財產權與營業秘密保護框架;(2)強化歐洲管理、處理資料之能力與資料互通性:建構資料共享體系結構並建立共享之標準及治理機制、於2022年第4季啟動歐洲雲端服務市場並整合所有雲端服務產品、於2022年第2季編纂歐盟雲端監管規則手冊;(3)強化個人有關資料使用之權利:從協助個人行使其所產出資料相關權利之角度,可能於資料法中優化歐盟一般資料保護規則(General Data Protection Regulation, GDPR)第20條之資料可攜權,如訂定智慧家電或穿戴裝置之資料可讀性格式;(4)建構戰略領域與公共利益領域之歐盟資料空間:針對戰略性經濟領域與攸關公共利益的資料使用需求,開發符合個資保護與資安法令標準之資料空間,主要用於保存製造業、智慧交通、健康、財務、能源、農業、公共管理等領域之資料。
本文為「經濟部產業技術司科技專案成果」
日本內閣於2018年6月15日決議組成跨部會之統合創新戰略推進會議,並於2019年3月29日發布AI戰略,其中的倫理面向為以人為本之AI社會原則(下稱AI社會原則),希冀藉有效安全的活用AI,推動「AI-Ready 社會」,以實現兼顧經濟發展與解決社會課題的「Society5.0」為最終目標。 為構築妥善應用人工智慧的社會,AI社會原則主張應尊重之價值理念如下: (一) 尊重人類尊嚴的社會:AI應作為能激發人類發揮多樣能力和創造力的工具。 (二) 多元性和包容性的社會(Diversity & Inclusion):開發運用AI以共創多元幸福社會。 (三) 永續性的社會(Sustainability):透過AI強化科技,以創造能持續解決社會差距與環境問題的社會。 而AI社會原則核心內容為: (一) 以人為本:AI使用不得違反憲法或國際保障之基本人權。 (二) AI知識(literacy)教育:提供必要的教育機會。 (三) 保護隱私:個人資料的流通及應用應妥適處理。 (四) 安全確保:把握風險與利益間之平衡,從整體提高社會安全性。 (五) 公平競爭確保:防止AI資源過度集中。 (六) 公平性、說明責任及透明性任。 (七) 創新:人才與研究皆須國際多樣化,並且建構產官學研AI合作平台。
Google成功阻擋GOOGLEBAY商標註冊日前在澳洲GoogleInc(Google)成功的阻擋DmitriRystk(Rystk)以GOOGLEBAY申請註冊於第35類消費者市場情報服務(consumermarketinformationservices)的商標。 根據澳洲商標法規定,提出異議者,即商標權人-Google,必須要能立證其所註冊的服務或商品中與爭議商標申請人Rystk所申請註冊的商標所指定的服務,至少有包含一項跟消費者市場情報服務類似的服務或商品;並且GOOGLE與GOOGLEBAY有足以令人混淆誤認之虞。 Google提出的訴因為: 1) GOOGLEBAY乃是與GOOGLE有“欺矇性的”相似(deceptivelysimilar)商標 2) Rystk提出註冊申請(2006年06月16日)時,GOOGLE已經在澳洲有相當知名度 澳洲商標審查員認為消費者市場情報服務是一個很廣義的範圍,可以想見其中必然包括廣告服務。因此,它所指定的服務即包含類似於Google第1049124號註冊商標所包含的服務,其中包括透過網際網路散佈廣告。 澳洲商標審查員亦同時提到GOOGLE此造字的特殊性,及另一個造字EBAY皆無字典上的解釋,並且這兩個造字都跟網際網路有強烈的關聯。根據這個見解,消費者即有可能將GOOGLEBAY視為GOOGLE跟EBAY的結合造字,加上並沒有其他字義解釋的情況下,想當然爾會認為GOOGLEBAY與Google的事業有關,比如認為GOOGLEBAY是GOOGLE關係家族的商標之一。加上GOOGLE商標在澳洲亦有十足的知名度*,更能讓商標審查員同意如此“欺矇性的”相似商標有足以令人混淆誤認之虞。 在此特別一提的是澳洲的商標法修正後,在對商標註冊提出異議時,對以與著名商標有疑似混淆誤認的訴因中“欺矇性的”相似已不再是前提要素。因此,商標審查員核駁了Rystk的GOOGLEBAY註冊申請。 *註1:根據澳洲聯邦商標法第60條第1項,商標註冊可以因另一商標在註冊的優先權日前即已在澳洲獲得相當知名度而遭到異議
英國發布《資料主體近用權指引》說明資料近用權法遵重點及實例解析英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2020年10月21日發布《資料主體近用權指引》(Guidance of Right of access),針對資料主體行使資料近用權之請求(Data Subject Access Request, DSAR),受請求之機構應如何進行識別判斷、簡化處理方式,以及特殊例外情況等法遵重點提供指導方針,並進行實例說明解析,以幫助受請求之機構在面臨資料主體之近用權請求時能快速且有效的處理。 英國「個人資料保護法」(The Data Protection Act 2018)依據歐盟「一般資料保護規則」(GDPR)於2018年重新修訂,其中資料近用權更是對於資料主體相當重要的基本權利,進而影響受請求之機構必須了解如何有效率的處理資料近用權之請求,並確實履行其在法規上所要求的保護義務,主要分為三點: 在資料主體確認其資料近用權所欲請求的範圍之前,受請求之機構依法應回覆時限應予以暫停,以利受請求之機構能有更充裕完整的時間釐清及回應資料主體之近用權請求。 為了避免受請求之機構耗費大量時間判斷何謂「明顯過度之請求」(manifestly excessive request),該指引提供相關定義說明及判別標準。 針對「明顯過度之請求」收取處理費用所包含的項目,例如受請求之機構處理請求所增加人力行政成本,在受請求之機構收取處理費用時可將其納入斟酌。
強化政府橫向協調,提升AI治理—澳洲擬於2026年初設立AI安全研究所澳洲政府於2025年11月25日宣布,將於2026年初設立AI安全研究所(AI Safety Institute)。澳洲AI安全研究所的設立目標,為提供相關的專業能力,以監管、測試與共享AI在技術、風險、危害層面的資訊。經由辨識潛在的風險,提供澳洲政府與人民必要的保護。AI安全研究所將以既有之法律與監管框架為基礎,因應AI風險,協助政府各部門調整相關規範。其主要業務如下: .協助政府掌握AI技術的發展趨勢,動態應對新興的風險與危害; .強化政府對先進AI技術發展及潛在影響的理解; .共享AI資訊與作為協調政府各部門的樞紐; .經由國家AI中心(National AI Centre,NAIC)等管道,提供事業、政府、公眾與AI相關的機會、風險和安全的指導; .協助澳洲履行國際AI安全協議的承諾。 AI安全研究所並為2025年12月2日,工業、科學與資源部(Department of Industry, Science and Resources)發布的國家AI計畫(National AI Plan,下稱澳洲AI計畫)中,保障應用AI安全性的關鍵項目。澳洲AI計畫指出,AI安全研究所將關注AI的上游風險(upstream AI risks),與下游危害(downstream AI harms)。所稱之上游風險,係指AI模型和系統的建構、訓練方式,與AI本身的能力,可能產生的疑慮。下游危害,則係指使用AI系統時,可能的實質影響。 AI安全研究所將支援與國際、政府各部門間之合作;並共享新興的AI技術能力,以及對AI上游風險的見解,發布安全研究成果,提供產業與學術界參考。AI安全研究所監測、分析與共享資訊,提出政府各部門,對AI下游危害,可採取的一致性應對建議。 綜上所述,澳洲政府提出國家AI計畫,於既有的法制體系,滾動調整相關規範,以應對AI風險。並成立AI安全研究所,追蹤國際AI發展脈動,及時提供澳洲政府應對建議,協調各部門採取一致性的行動。澳洲政府對新興AI技術,所採取策略的具體成效,仍有待觀察。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)