商標具有表彰商品來源之功能,其設計為配合商品特色而具有識別性。商標註冊後,若不具有識別及表彰商品來源之特徵,而失去商標應有之基本功能,依據商標法第63條第4款,不具識別性之商標,無法主張商標專用之權利。商標名稱通用化,即是指原本具有識別性之商標,通常為著名商標,因為社會大眾消費習慣以及認知的改變,變成商品的通用名稱,此時即認該商標失去識別性,失去法律保護。 商標名稱通用化形成之原因不一,可能是企業經營者設計商標時,有意使用社會大眾熟悉之名稱作為商標,也有可能非商標權利人自己故意造成,特別是著名商標,容易流於通用化。例如,「可樂(cola)」一詞由可口可樂(coca cola)公司率先註冊使用,但於消費者心目中已成為特定碳酸飲料之名稱,則不得由可口可樂公司獨占使用;又如火柴盒玩具汽車,為火柴盒大小包裝之玩具,企業經營者以 matchbox 作為該玩具的文字商標,但美國聯邦最高法院認為matchbox屬於該商品之通用名稱,否認其商標權。 實務上判斷商標名稱通用化,以該商標名稱在一般消費者心目中認識的主要意義為標準。一個經過市場行銷之註冊商標名稱,若在消費者心目中屬於商品通用名稱,而非特定商品來源,則表示該商標名稱已不具備商標功能,不受法律保護。
淺析英國建築能源效率政策—Green Deal之融資運作政策研究 歐盟個人資料保護委員會提出關於資料主體接近使用其個人資料權利之指引歐盟《一般資料保護規則》(General Data Protection Regulation, GDPR)第15條為「資料主體之接近使用權(Right of access)」,其第1項規定「資料主體有權向控管者確認其個人資料是否正被處理」,資料主體並得知悉其個資處理之目的、所涉及之類型等事項。該條係為使資料主體在獲得充分、透明且容易接近之資訊,使其得更輕易的行使如資料刪除或更正等權利。 因條文在文字上具抽象性,就具體內涵仍須有一定基準,故歐盟個人資料保護委員會(European Data Protection Board, EDPB)於2022年1月18日,針對GDPR中之接近使用權提出指引(Guidelines 01/2022 on data subject rights - Right of access),闡明在不同的情況中,資料主體應如何向資料控管者(Data Controller)主張接近使用權,並且說明資料控管者針對此項權利之義務內涵。 就具體內容,該指引包含:接近使用權之範圍、資料控管者應向資料主體提供之資訊內容、資料主體請求資訊之格式、資料控管者應如何提供資訊、GDPR第12條第5項所稱「資料主體之請求明顯無理由或過度者」之概念為何。指引並製作流程圖,以便利資料主體輕易的了解向資料控管者主張權利之步驟。 而對於資料控管者,指引亦說明其應如何解釋與評估資料主體之請求、應如何回覆特定請求、限制接近使用權之例子。該指引旨在從各方面分析接近使用權,經由舉例與設想特殊情形,以求為該權利提供更精確之指導。
英國資訊委員辦公室提出人工智慧(AI)稽核框架人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。