Burberry近期在社交網站臉書(facebook)的動態時報上上載了一張Bogart穿著Burberry風衣的照片,照片上傳後隨即吸引了上千萬粉絲按讚,但熱潮的席捲下也引來了侵權風波。
該照片為1942年"Casablanca"電影劇照,主角人物為於1957年去世的Bogart,其被美國電影協會公認為美國電影史上最棒的男性演員。因為Bogart於電影中傳神的飾演Rick Blaine角色,不僅在電影粉絲心中留下鮮明的文化表徵(cultural icon),更使得該張劇照贏得最佳照片獎(Academy Award for best picture)。
正因為Bogart的知名度以及該張電影劇照的受歡迎程度,Bogart後裔對於Burberry這樣的使用提出了抗議。Bogart後裔要求Burberry停止使用該張劇照,否則就要提起訴訟控告Burberry侵害Bogart的肖像權和商標權。在接受到Bogart後裔的要求後,Burberry隨即於紐約聯邦法院提出確認之訴,請求法院確認其使用並未侵害歸屬於Bogart後裔的商標或肖像權。因應Burberry的提告,Bogart後裔隨即於加州州法院提起商標侵權訴訟,請求法院發出禁制令,停止Burberry再使用Bogart的名字和任何照片。
雙方針對此一爭議各有主張及堅持。Burberry聲明該劇照是向專門從事照片、影像授權業務的Corbis公司取得授權而來,其主張使用該劇照主要是要描述Burberry在時尚產業的悠久歷史,以及該品牌的重要性及影響性,其並非利用該劇照來達到行銷Burberry的目的,所以其不認為開始用有任何侵權問題。此外,Burberry認為將該劇照使用在臉書的動態時報上這樣的行為是受到美國憲法第一修正案言論自由的保護。
Bogart後裔則認為Burberry使用劇照於市場行銷相關素材/媒介上,可明確看出其有意於Burberry實際及潛在消費者心中,將Burberry品牌及產品商業性連結至Bogart名人形象上,所以Burberry的行為已侵害到Bogart的商標權和肖像權。
Burberry及Bogart後裔雙方因應不同州法律採用策略性訴訟技巧,分別於紐約及加州提起訴訟,知名品牌和知名男星後裔的商標及肖像權之爭正式開戰,法院判決結果值得後續關注。
2026年3月1日,日本人工智慧(AI)安全研究所(Japan AI Safety Institute, J-AISI)發布《首席AI長指引 1.00版》(Chief AI Officer Guidebook (Version 1.00),下稱指引)與《首席AI長設置與AI治理實施實務手冊 1.00版》(Practical Manual for Establishing a Chief AI Officer and Implementing AI Governance (Version 1.00),下稱實務手冊)。兩份文件旨於促進AI時代下的永續企業經營(sustainable business operations),提升產品與服務品質、建立客戶與使用者的信任。 一、指引與實務手冊概覽 指引內容包含設立「首席AI長」(Chief AI Officer, CAIO)職位之目的、職責。實務手冊內容則進一步指出一種組織模式,其中首席AI長為獨立的高階主管,直接向執行長匯報,並在首席AI長下設立AI治理辦公室,以及建議設立一個「跨部門AI指導委員會(Company-wide AI Steering Committee)」,成員包括首席AI長、首席資料長、首席資訊長、首席技術官、首席資訊安全官、法律合規部門、資料保護官、人力資源部門以及關鍵業務部門。各業務部門與系統所有者應依照既有標準運作,並向人工智慧治理辦公室和資料治理組織提供必要資訊。 二、將AI特定風險納入資料治理框架:降低幻覺與偏見之具體作法 在AI系統的生命週期中,資料品質影響決定模型效能、可解釋應與透明度。 首席AI長的職責為整合AI、資料與技術策略,於確保企業信任與風險管理之基礎下,驅動企業創新與數位轉型,並最大程度提升企業價值。因此,首席AI長應與首席資料長、法務部門協調,規範資料的生命週期、設定品質指標(Quality Metrics),並嚴格核實第三方素材授權(licenses for third-party materials)。 以下介紹文件建議之AI資料生命週期(資料蒐集)之管理作法: (一)區分資料用途:針對每個使用案例與模型,區分(1)AI模型訓練用資料;(2)AI訓練完成後,用於驗證與評測模型產出品質的評估資料(evaluation data),此類資料不參與模型的優化調整,僅客觀確認模型的準確度;(3)於AI模型運行過程中,使用者輸入的資料(data entered during inference),包含提示詞、上傳的文件及系統日誌(Logs)。 (二)資料分類:企業應依資料機敏程度進行分類,如機密、個資、內部及公開資訊等分類,以便加以定義資料之蒐集方式、儲存方式、資料遮罩要求(masking requirement,包含去識別化),以及控管資料傳輸至外部AI服務之權限。 (三)落實可追溯性與透明度文件:應透過實務手冊18.3之資料表(Datasheets)進行標準化記錄,包含 1. 基本資訊,如資料及名稱與版本;資料所有者;資料建立日期、最後更新日期等。 2. 目的與使用範圍,如資料集的用於訓練、評估、優化等;資料使用範圍限內部,或可對外提供等。 3. 組成與範圍,如記錄資料筆數與特徵概況;目標期間、區域與族群,如年齡、產業;資料格式,如文字/影像/音訊等。 4. 資料來源與蒐集方法,包含資料來源(內部系統、客戶提供的資料、公開資料、供應商提供的資料等);資料蒐集方法(日誌、調查、網路爬蟲等);是否取得資料主體同意等。 5. 資料品質與預處理(preprocessing),包含:紀錄去識別化等資料轉換流程;規範資料標記之品質管理機制。 6. 代表性與偏見,如列出AI預期使用情境與目標客群的一致性;特定性別、年齡、地區是否存在代表性不足的偏差等。 7. 隱私與法源依據,如資料是否包含個人資料或敏感資訊;資料處理之法律依據,如資料主體同意、契約等;採取之隱私保護措施,如去識別化等。 8. 授權、權利與資料反覆使用之條件:使用條件,如授權條款、是否允許商業使用等。 9. 安全性與存取控制:儲存位置,如資料中心、雲端或本地以及是否加密;資料之存取權限,如控管檢視、編輯、匯出等權限。 10. 資料保存與銷毀:記錄訓練資料、評估資料、輸入資料等不同類型資料之儲存期限,並規定如儲存期限過後,需以不可回復之方式銷毀資料,或必要時,應匿名後歸檔等規定。 三、接軌國內實務:企業可參考EDGS規範健全AI風險管理需求 面對AI資料生命週期管理,建議我國企業可參考資策會科法所創意智財中心發布之《重要數位資料治理暨管理制度規範(EDGS)》。EDGS同樣強調數位資料歷程管理,從資料生成、保護到維護的管理流程,有效強化資料的完整性。透過導入EDGS,企業不僅能提升內部創新、數位轉型,更能在面對AI糾紛時,提供歷程紀錄,從源頭端落實首席AI長所要求的循證治理目標。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)
英國身份證立法-我國之借鏡? 德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。 諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。 綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。
美國國會提出「不被追蹤網路資訊保護法案」「不被追蹤網路資訊保護法」(Do Not Track Me Online Act of 2011)的內容為法律規定企業必須提供選項給消費者選擇退出不被網路追蹤的機制,例如廣告商為了廣告的行銷,以網路技術追蹤消費者軌跡,廣告商必須提供消費者退出被追蹤的選項,給消費者作選擇,主要的目的在保護消費者資訊不被網路技術追蹤而洩漏隱私,若是此法案通過後,可以藉此保護消費者的網路隱私權。 在2010年12月由美國聯邦交易委員會(U.S Federal Trade Commission, FTC)的網路隱私報告中初步提出Do Not Track Me Online Act,美國國會議員在2011年提出此法案進行討論,若是通過後,將會有效限制線上廣告及社群媒體追蹤消費者使用網路的行為,並且防免其將個人資料分享予其他企業,及有效限制線上廣告及社群媒體追蹤消費者使用網路。對於行政機關來說,能夠藉此協助美國聯邦交易委員會建構整體的不被追蹤網路法案標準。若業者未遵守此法案提供退出機制,美國聯邦交易委員會將可能提起不公正及詐欺訴訟,而發動此一訴訟的人員為各州檢察總長。 為了保護隱私,不被追蹤網路資訊法案的提出十分需要,對於企業是否能追蹤消費者的網路活動,消費者因此擁有選擇權。在美國聯邦交易委員會去年12月初步提出此法案後,許多網路瀏覽器例如Mozilla及Explorer紛紛改進技術,以提早因應不被追蹤法案的實施,而廣大消費者團體的也紛紛支持此法案,認為可以因此保護消費者的網路隱私權。