印度電子資訊產業技術部(MeitY)2022年11月在網站上公布了個人資料資訊保護法草案(Digital Personal Data Protection Bill,以下簡稱該法案),並於2023年7月提交議會審查。目前印度民法不承認未成年人(未滿18歲者)具有自主簽訂契約的能力。因此,取得的兒童同意不具有法律效力,必須徵得父母或是監護人的同意才能合法蒐集兒童個人資料。
根據印度2022年個人資料資訊保護法案草案,任何未滿18歲的人都被歸類為「兒童」。該法案中同時限制專門向兒童發送的廣告,並且監管任何追蹤兒童行為的情況。目前國際隱私法(例如:歐盟通用資料保護條例 (GDPR)、加州消費者隱私法(CCPA)等)的兒童定義多在13至17歲之間。但考慮到兒童個人資訊的敏感性和潛在危害,印度政府採取了較保守嚴謹的路線。政府也已被授權制定有關處理兒童個人資訊的細則,特别是確保資料使用人不可使用可能對兒童造成傷害的個人資料。
根據社會發展狀況,兒童若每次在網路平台上進行活動時都需經過父母或是監護人同意不甚妥適,且根據前述說明,兒童界定年齡為18歲以下,若依照統一年齡範圍進行控管,實際執行上面臨窒礙難行之處。故修法者在對於該法案修改意見中,引用了其他國家隱私法中的不同年齡分類限制,以求降低年齡門檻限制,或是根據用戶的年齡制定差異化的授權要求。
另一個產生的爭議為,該如何驗證父母或是監護人的同意表示。法條中目前無明確規範何為「有效之同意表示」,現行各平台使用不同的方法獲得父母或是監護人的同意,目前有兩種方式,包括點選「同意」按鈕,或是在用戶條款中表示若使用服務等同於監護人同意。
關於兒童年齡之界定,是否將參考其他國家規範進行差異化設定,目前暫無明確定論(包括如何調整、年齡級距設定),根據資訊使用的普及,兒童年齡的界定可以預期的將會進行調整;關於如何有效驗證父母或是監護人的同意表示,目前在技術上大多服務商都偏好透過會員註冊時的同意按鈕或是用戶條款中列明若使用服務即代表同意這兩種方式認定,在這兩種方式之後,系統是否有設定驗證機制,以及需要何種驗證方式才可以認定父母或是監護人的同意表示是符合法律效力的,都需後續再進行研擬。
2021年7月14日歐盟普通法院裁定時尚品牌GUERLAIN法國嬌蘭(簡稱嬌蘭)口紅外盒形狀可註冊為商標。 嬌蘭於2018年針對其口紅外盒設計向歐盟智慧財產局(簡稱EUIPO)提出商標申請,EUIPO審查認為申請的商標缺乏識別性特徵並駁回申請;嬌蘭進而向EUIPO提出上訴,其上訴委員會維持該決定,理由為口紅立體形狀外盒設計與時尚產業領域的其他產品沒有“顯著差異”。 在上訴中,歐盟普通法院裁定EUIPO上訴委員會的決定無效。法院將嬌蘭的口紅設計與最常見的圓柱口紅形狀、平行六面體形狀進行比較,並指出嬌蘭申請的口紅外盒設計與市面上其他品牌之口紅外觀設計有明顯不同,認為該口紅外盒設計具有顯著特徵。 最終,歐盟普通法院說明判斷商標是否具有顯著性,不應該以商標在相關商品和服務所屬領域具有獨創性或未使用為依據;此外,僅僅立體形狀的新穎性和美觀特徵為主觀看法,不足以得出具有獨特性的結論,因為決定性的標準是該立體形狀可顯現出商品或服務來源的能力。同時,歐盟普通法院重申相關判定標準是嬌蘭口紅外盒立體設計方式以類似於船、搖籃或倒置金條的獨特形狀組成,明顯與時尚產業固有的口紅外盒的圓柱、平行六面體形狀設計規範和習慣大相徑庭,並且相關形狀特徵設計足以讓相關消費者藉以區辨服務來源。 在時尚品牌產業,商標本身通常不能成為區分品牌產品的唯一方式,尤其是當一個品牌提供多樣化的產品時更是難以認定具有獨特性。本案普通法院對立體形狀商標顯著特徵的認可無疑將為希望可保護其產品顯著設計元素的時尚品牌帶來曙光。 「本文同步刊登於TIPS網站(https://www.tips.org.tw)」
歐盟單一數位市場之著作權指令(法案)由於數位環境下,歐盟著作權法架構在著作跨境使用上仍有不明確之處,因此歐執會於2016/09/14公布「歐盟單一數位市場之著作權指令」法案(Proposition de DIRECTIVE DU PARLEMENT EUROPÉEN ET DU CONSEIL sur le droit d’auteur dans le marché unique numérique)。法案產生背景是因為擬藉由此法案補充現行歐盟著作權規範架構之不足。 此法案涉及三大重點議題,包括:網路著作內容之跨境取得、歐盟著作權規則如何在數位及跨國環境下運作、以及歐盟著作權市場運作。 因應作品新型式數位使用及具跨境使用性質,法案對於科學研究上資料探索(la fouille de textes et de données)、以教育為目的使用及為文化遺產保存使用,於網路跨境使用上,賦予著作權法跨境使用例外。 其次,為便利VOD平台取得影視著作之授權使用,此法案要求會員國設立授權協商機制,由公正第三方,就數位著作授權,提供權利人及平台諮詢業務。又為簡化數位新聞出版品之授權,確保出版者對數位新聞業之投資,法案承認數位新聞出版者為著作鄰接權人。也就是說,針對新聞作品數位使用上,賦予數位新聞出版者重製權及公眾提供權(le droit de mise à disposition)。 另外為確保著作權授權市場運作,明定網路儲存及連接服務業者(ISP)雖可主張第三人免責規定,但仍負有採取適當及合比例性措施來保護網路著作權之義務;同時,要求授權作品(包含權利移轉)之事後使用資訊需透明化,若有權利金與使用收益比例不當之情形,會員國需有補償機制之救濟並提供替代性爭端解決機制,希望藉由促進著作經濟價值的正確評估,加強對著作人及表演人之保護。 簡而言之,指令目的在擴大歐盟內部使用接近(近用)受著作權保護之網路作品機會,促進受著作權保護作品得以跨境使用於教育、研究及文化保存,以確保數位著作權市場運作效益。 法案將依據歐盟立法程序分送歐盟議會及理事會審查。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
韓國發布人工智慧基本法韓國政府為支持人工智慧發展與建立人工智慧信任基礎,提升國家競爭力,韓國科學技術情報通訊部(과학기술정보통신부)於2025年1月21日公布《人工智慧發展與建立信任基本法》(인공지능 발전과 신뢰 기반 조성 등에 관한 기본법안,下稱AI基本法),將於2026年1月22日起生效。韓國《AI基本法》為繼歐盟《人工智慧法》(EU Artificial Intelligence Act)之後第二部關注人工智慧的國家級立法,並針對高影響人工智慧(고영향 인공지능)及生成式人工智慧進行規範,促進創新及降低人工智慧風險,將搭配進一步的立法與政策以支持人工智慧產業。 《AI基本法》有以下三個政策方向: 1. 人工智慧基本計畫:由科學技術情報通訊部制定並每三年檢討「人工智慧基本計畫」,經「國家人工智慧委員會」審議後實施,決定產業發展政策、培育人才、健全社會制度等事項。本法並設置人工智慧政策中心及人工智慧安全研究所,提供科學技術情報通訊部所需的研究與分析。 2. 扶持產業發展:以扶持中小企業及新創企業為發展方向,促進產業標準化的基本政策,爭取國際合作及海外發展。 3. 人工智慧倫理與安全性:政府公布人工智慧倫理原則,由相關機構及業者自主成立人工智慧倫理委員會,在政府發布的指引下建立貼近實務面的倫理指引。本法明確要求人工智慧產業必須負擔透明性及安全性義務,政府也推動認驗證制度,以確保人工智慧的可靠性。 韓國《AI基本法》將人工智慧發展方向及社會政策結合,明確要求政府制定人工智慧發展計畫並定期檢討,施行具體措施與設置必要組織,確立政府在人工智慧領域的角色,然產業界對於政府監管力度之意見有所分歧,為《AI基本法》後續相關政策及指引推動種下不確定性,值得持續追蹤相關動態作為我國人工智慧發展策略之參考。
英國資訊委員辦公室提出人工智慧(AI)稽核框架人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。