今(2017)年七月,擁有著名「Toblerone瑞士三角巧克力(下簡稱Toblerone巧克力)」之食品大廠「億滋國際(Mondelēz International,下簡稱Mondelēz公司)」,對英國零售商Poundland及其供應商Walkers Chocolates所開發之新產品─Twin Peaks巧克力棒提出警告函,而使該新產品之上市時間延遲。
Mondelēz公司向英國倫敦高等法院提出Twin Peaks巧克力仿冒Toblerone巧克力之紅與金配色之包裝、logo及產品外觀,已侵犯其商標權。並指出Twin Peaks巧克力棒是「欺騙性和混淆性近似(deceptively and confusingly similar)」,使消費者誤認Twin Peaks巧克力棒為Mondelēz公司所生產。
而零售商Poundland於八月中所提之答辯指出,Twin Peaks巧克力棒已取得英國註冊商標,並主張:儘管Mondelēz公司早在1997年將Toblerone巧克力之稜柱體註冊為歐盟立體商標(three dimensional mark),然而因應原物料成本上漲,Mondelēz公司為了不影響售價而於去(2016)年底將該產品之外觀作了變更,包括增加稜柱體之間距、並使原本十二塊稜柱體縮減為九塊;此外,Mondelēz公司於英國所販售之Toblerone巧克力早自2010年起,已改為十一塊稜柱體,亦非當初註冊商標之十二塊稜柱體,因此零售商Poundland聲稱Toblerone巧克力之外觀已不足以具有識別性(distinctive),使該商標「不可避免地被放棄(irretrievably abandoned)」而質疑該商標之有效性。
比對兩者之外觀,相對於Toblerone巧克力為單峰稜柱體,並以瑞士阿爾卑斯山之馬特洪峰(Matterhorn)為意象;而Twin Peaks巧克力棒則為併列之雙峰,且象徵英國之瑞金山(Wrekin)。商標係用以區別商品或服務來源,當其他廠商巧克力棒之產品外觀採用與Toblerone巧克力相同或近似之外觀,使該外觀喪失識別性而趨於通用性(generic),將無法作為商標使用,也因此Mondelēz公司強調其產品之識別性以捍衛其商標權,本案後續發展尚待觀察。
「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
2018年5月,英國資訊專員辦公室(Information Commissioner’s Office, ICO)針對歐盟GDPR有關資料自動化決策與資料剖析之規定,公布了細部指導文件(detailed guidance on automated decision-making and profiling),供企業、組織參考。 在人工智慧與大數據分析潮流下,越來越多企業、組織透過完全自動化方式,廣泛蒐集個人資料並進行剖析,預測個人偏好或做出決策,使個人難以察覺或期待。為確保個人權利和自由,GDPR第22條規定資料當事人應有權免受會產生法律或相類重大效果的單純自動化處理決策(a decision based solely on automated processing)之影響,包括對個人的資料剖析(profiling),僅得於三種例外情況下進行單純自動化決策: 為簽訂或履行契約所必要; 歐盟或會員國法律所授權; 基於個人明示同意。 英國2018年新通過之資料保護法(Data Protection Act 2018)亦配合GDPR第22條規定,制定相應國內規範,改變1998年資料保護法原則上容許資料自動化決策而僅於重大影響時通知當事人之規定。 根據指導文件,企業、組織為因應GDPR而需特別留意或做出改變的事項有: 記錄資料處理活動,以幫助確認資料處理是否符合GDPR第22(1)條單純自動化決策之定義。 倘資料處理涉及資料剖析或重大自動化決策,應進行資料保護影響評估(Data Protection Impact Assessment, DPIA),判斷是否有GDPR第22條之適用,並及早了解相關風險以便因應處理。 提供給資料當事人的隱私權資訊(privacy information),必須包含自動化決策之資訊。 應確保組織有相關程序能接受資料當事人的申訴或異議,並有獨立審查機制。 指導文件並解釋所謂「單純自動化決策」、「資料剖析」、「有法律效果或相類重大影響」之意義,另就可進行單純自動化決策的三種例外情況簡單舉例。此外,縱使符合例外情況得進行單純自動化決策,資料控制者(data controller)仍必須提供重要資訊(meaningful information)給資料當事人,包括使用個人資料與自動化決策邏輯上的關聯性、對資料當事人可能產生的結果。指導文件亦針對如何向資料當事人解釋自動化決策處理及提供資訊較佳的方式舉例說明。
美國國會眾議院發布數位資產市場結構法案討論稿,期望建立明確監管框架隨著加密資產與區塊鏈技術的迅速發展,美國國會眾議院於2025年5月5日提出《數位資產市場結構法案討論稿》(Digital Asset Market Structure Discussion Draft),旨在制定新法並同時修改多部美國聯邦金融法規,以建立數位資產的清晰監管框架,期促進美國數位資產市場創新、投資人保障與維護市場公平,其討論重點如下: 1. 數位資產定義與監管職權劃分:於證券法(Securities Act)與商品交易法(Commodity Exchange Act)新增大量關於數位資產的定義,並明確劃分證券交易委員會(Securities and Exchange Commission, SEC)與商品期貨交易委員會(Commodity Futures Trading Commission, CFTC)的監管界線。 2. 去中心化金融(Decentralized Finance, DeFi)、穩定幣與成熟區塊鏈系統的豁免機制:成熟區塊鏈系統、受核准的支付型穩定幣(Permitted Payment Stablecoins)與特定DeFi活動(如:驗證交易、提供用戶介面等)得排除法令適用,為區塊鏈項目提供更彈性的監管途徑。 3. 市場參與者註冊要求:規定數位商品交易所、經紀商、交易商之市場參與者,應向CFTC註冊之相關要求,遵循包含資本規範、客戶資金隔離、交易監控、報告義務等原則,以提升市場透明度和投資者保護。 4. 數位資產領域研究:要求SEC與CFTC應設立金融創新辦公室(Offices of Financial Innovation) 和創新實驗室(LabCFTC),進行多項關於數位資產領域的研究,包含DeFi、金融市場基礎設施之改善等,以提供監管機構新興技術資訊。
競業禁止新方向-「勞資雙方簽訂離職後競業禁止條款參考原則」 澳洲數位轉型局12月發布《政府負責任使用人工智慧政策2.0》,以強化公部門之AI風險管理2025年12月初,澳洲數位轉型局(Digital Transformation Agency,下稱DTA)發布《政府負責任使用AI政策2.0》(Policy for the responsible use of AI in Government 2.0),旨在進一步強化公部門在AI的透明度、問責性與風險管理能力,於2025年12月15日生效,取代 2024年9月實施的過渡版本。 一、適用範圍 政策適用於所有非企業型聯邦實體(Non-corporate Commonwealth entities),即不具獨立法人地位、直接隸屬於政府的機關或單位。企業型聯邦實體則被鼓勵自願遵循。政策定位為「補充與強化既有法制」,非另訂獨立規範,因此在實務中須與公務員行為準則、資安規範及資料治理制度併行適用。 二、政策重點 在政策施行的12個月內,適用機關須完成以下要求,以確保落實AI治理架構: (一)制度建置 1. AI 透明度聲明:機關須在政策生效後 6 個月內發布「AI 透明度聲明」,公開 AI 使用方法與現況。聲明中須說明機關風險管理流程、AI 事件通報機制及內外部申訴管道,確保使用過程透明、可追蹤。 2. 人員指定與培訓: 機關須指定制度問責人員(Accountable officials)以及AI使用案例承辦人(Accountable use case owners)。 所有員工皆須進行關於負責任使用AI的培訓,機關並依員工職務權責提供個別員工進階訓練。 3. 建立內部AI使用案例註冊清單(Internal AI use case register),以供後續追蹤 該清單至少包含: (1)使用案例負責人(Accountable use case owners):記錄並持續更新範疇內 AI 使用案例的指定負責人。 (2)風險等級(Risk rating):AI使用案例的風險等級資訊。 (3)異動紀錄:當使用案例的風險評級或負責人變更時,須即時更新清單。 (4)自定義欄位:各機關可根據其需求,自行增加欄位。 (二)AI 使用案例範疇判斷 機關須在評估所有新案例,依以下特徵判斷AI應用是否屬於「範疇內(In-scope)」的應用: 1.對個人、社群、組織或環境造成重大損害。 2.實質影響行政處分或行政決策。 3.在無人工審查的情況下,大眾將直接與AI互動或受其影響。 4.涉及個人、敏感資料等資訊。 (三)進階風險評估 依AI影響評估工具(Impact Assessment Tool)針對公眾近用權;不公平歧視;加重刻板印象;損害人、組織或環境;隱私顧慮;資料敏感之安全顧慮;系統建置之安全顧慮;公眾信任等8類別,加以判斷範疇內AI應用,若有任一類別被評為「高風險」,即判定為「高風險」;若所有類別中最高的分數為「中風險」,則整體判定為中風險。 判定為中、高風險之AI應用,均需進行全面審核。中風險須列出所有中風險項目及其控管措施,主要為內部控管;而高風險則要求向DTA報告,且每年至少進行一次全面審核與風險再評估。 澳洲欲透過發布AI透明度聲明、更新AI使用案例註冊清單、強制執行AI應用之風險評估及人員培訓,確保公部門對AI的負責任使用與問責。而我國企業可參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》,落實AI資料管理與追蹤。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)