Vivid Entertainment是一家成人節目公司,聲稱HTC有商標侵權並已向這電子龍頭寄出警告函。
該公司主張HTC之智慧型手機HTC Vivid 侵害其Vivid Entertainment的商標,並表示HTC使用「Vivid」名稱於4G LTE裝置,造成消費者錯誤印象,以為HTC公司及產品皆為Vivid Entertainment附屬或有所關聯,可能造成消費者混淆或誤認。
Vivid Entertainment於11月14日寄出警告函,要求HTC停止使用該商標銷售手機,並宣稱從1984年已開始使用Vivid商標。該律師於此一警告函中表示HTC的手機名稱可能構成商標侵權、商標淡化及不實的來源標示。
Vivid Entertainment給予HTC回應此信之期限為11月21日,如未收到HTC回覆,Vivid Entertainment將進一步提出法律賠償。先前詢問HTC時,該公司表示:「我們正審視此一指控,我們不會有任何進一步評論,直到這問題被解決。」
英國政府於 8 月 16 日宣布,對 1990 年所公布人類生殖及胚胎法案( the Human Fertilisation and Embryology Act 1990, the HFE Act )之檢討,展開公眾諮議活動,本項諮議活動將持續至今年 11 月 25 日。 本項諮議活動,源自於英國政府意識到該項法案雖然為英國的人類胚胎相關技術的研發提供了穩健的法制基礎,但隨著科技的進步,該項法律早已跟不上時代的腳步,甚至形成阻礙;有鑑於此,英國政府於 2004 年 1 月公布檢討上述法案,這項檢討包括預定在 2005 舉行公眾諮議活動( consultation ),希望夠過公眾參與獲得各界對上述法案的批評與建言,一方面建立公眾對相關科技的信心,一方面檢視該法是否仍適合英國 21 世紀初期的需求,並其建立一套為社會廣泛所接受的規範架構。本項諮詢的主要議題,包括了為醫療目的而選取胚胎之相關管控規範、供研究目的用之胚胎的定義與 粒線體遺傳疾病( mitochondrial disease )研究之規範。 根據英國健康部在其網站上發表的文件指出,這項檢討希望參酌科技的進展、社會態度的轉變、國際相關科技的發展與對可確實有效之法規的需求。 這項活動引起了英國下議院科技委員會( the House of Commons Science and Technology Committee )對生殖科技( reproductive technologies )與相關法律的注意,並對此做出回應。科技委員會建議,未來的修正應不會對胚胎重新定義,而是將焦點放在何種胚胎適合移植,何種胚胎可提供研究。委員會更建議,因粒腺體遺傳疾病研究,而造成基因結構改變之細胞成為胚胎的一部份的情形,應加以禁止。
多層次營銷公司即使向數千名人員發布屬於其營業秘密之培訓教材,仍能主張已採取合理保密措施2022年3月7日華盛頓西區地方法院針對原告多層次營銷(直銷)美容公司Tori Belle Cosmetics LLC(下稱原告)向數千名人員發布屬於營業秘密之培訓教材,能主張有採取合理保密措施做出結論。原告行銷Belle Cosmetics產品之方式是以銷售人員的個人 Facebook 帳號來販售化妝品和假睫毛產品,並將公司培訓教材上傳到由數千名成員組成的 Facebook 群組“Team Lash Out”中,且設定帳號公開權限維護其所提供之培訓教材、銷售人員及客戶之聯繫清單,故華盛頓西區地方法院仍認定其主張有理由。 被告(Belle Cosmetics的五名前網路銷售人員)雖主張銷售人員因持有Facebook個人帳號之所有權,認為與個人帳號有關之銷售人員及客戶的聯繫清單皆屬被告所有。並且,由於每個被告的 Facebook 朋友都可以看到他們的朋友清單,而主張聯繫清單不具秘密性。法院不採納被告之主張,認為原告已有設定權限限制Facebook 群組中的朋友僅可以看到其他朋友的姓名和頭像,涉及電話及地址等聯繫資訊則設定不公開,故銷售人員及客戶之聯繫清單仍具秘密性。 此外,被告亦主張原告將培訓教材上傳至「世界最大社交媒體網站Facebook」,並向數千名銷售人員公開,應判定該培訓教材已不具秘密性。法院則駁回指出Facebook之用戶可以設定權限,指定特定人加入群組中讀取培訓教材,故認為仍培訓教材具有秘密性。 本案最值得關注的是後續法院會以何種方式評估上傳至Facebook群組之培訓教材有採取合理保密措施,例如法院如何評估原告與銷售人員間的合約有約定針對教材內容具有保密義務、群組管理員如何驗證請求加入群組之用戶是該公司之網路銷售人員,或法院如何判定在營業秘密解密前Facebook 群組中有多少用戶不具備網絡銷售人員身分。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
南韓個資保護委員會發布人工智慧(AI)開發與服務處理公開個人資料指引南韓個資保護委員會(Personal Information Protection Commission, PIPC)於2024年7月18日發布《人工智慧(AI)開發與服務處理公開個人資料指引》(인공지능(AI) 개발·서비스를 위한 공개된 개인정보 처리 안내서)(以下簡稱指引)。該指引針對AI開發與服務處理的公開個人資料(下稱個資)制定了新的處理標準,以確保這些資料在法律上合規,且在使用過程中有效保護用戶隱私。 在AI開發及服務的過程中,會使用大量從網路上收集的公開資料,這些公開資料可能包含地址、唯一識別資訊(unique identifiable information, UII)、信用卡號等個資。這些公開的個資是指任意人可藉由網路抓取技術自公開來源合法存取的個資,內容不限於個資主體自行公開的資料,還包括法律規定公開的個資、出版物和廣播媒體中包含的個資等。由於公開資料眾多,在現實中很難在處理這些公開個資以進行AI訓練之前,取得每個個資主體的單獨同意及授權,同時,南韓對於處理這些公開個資的現行法律基礎並不明確。 為解決上述問題,PIPC制定了該指引,確認了蒐集及利用公開個資的法律基礎,並為AI開發者和服務提供者提供適用的安全措施,進而最小化隱私問題及消除法律不確定性。此外,在指引的制定過程中,PIPC更參考歐盟、美國和其他主要國家的做法,期以建立在全球趨勢下可國際互通的標準。 指引的核心內容主要可分為三大部分,第一部分:應用正當利益概念;第二部分:建議的安全措施及保障個資主體權利的方法;及第三部分:促進開發AI產品或服務的企業,在開發及使用AI技術時,注意可信任性。 針對第一部分,指引中指出,只有在符合個人資料保護法(Personal Information Protection Act, PIPA)的目的(第1條)、原則(第3條)及個資主體權利(第4條)規定範圍內,並滿足正當利益條款(第15條)的合法基礎下,才允許蒐集和使用公開個資,並且需滿足以下三個要求:1.目的正當性:確保資料處理者有正當的理由處理個資,例如開發AI模型以支持醫療診斷或進行信用評級等。2.資料處理的必要性:確保所蒐集和利用的公開資料是必要且適當的。3.相關利益評估:確保資料處理者的正當利益明顯超越個資主體的權利,並採取措施保障個資主體的權利不被侵犯。 而第二部分則可區分為技術防護措施、管理和組織防護措施及尊重個資主體權利規定,其中,技術防護措施包括:檢查訓練資料來源、預防個資洩露(例如刪除或去識別化)、安全存儲及管理個資等;管理和組織防護措施包括:制定蒐集和使用訓練資料的標準,進行隱私衝擊影響評估(PIA),運營AI隱私紅隊等;尊重個資主體權利規定包括:將公開資料蒐集情形及主要來源納入隱私政策,保障個資主體的權利。 最後,在第三部分中,指引建議AI企業組建專門的AI隱私團隊,並培養隱私長(Chief Privacy Officers, CPOs)來評估指引中的要求。此外,指引亦呼籲企業定期監控技術重大變化及資料外洩風險,並制定及實施補救措施。 該指引後續將根據PIPA法規修訂、AI技術發展及國際規範動向持續更新,並透過事前適當性審查制、監管沙盒等途徑與AI企業持續溝通,並密切關注技術進步及市場情況,進而推動PIPA的現代化。