Burberry近期在社交網站臉書(facebook)的動態時報上上載了一張Bogart穿著Burberry風衣的照片,照片上傳後隨即吸引了上千萬粉絲按讚,但熱潮的席捲下也引來了侵權風波。
該照片為1942年"Casablanca"電影劇照,主角人物為於1957年去世的Bogart,其被美國電影協會公認為美國電影史上最棒的男性演員。因為Bogart於電影中傳神的飾演Rick Blaine角色,不僅在電影粉絲心中留下鮮明的文化表徵(cultural icon),更使得該張劇照贏得最佳照片獎(Academy Award for best picture)。
正因為Bogart的知名度以及該張電影劇照的受歡迎程度,Bogart後裔對於Burberry這樣的使用提出了抗議。Bogart後裔要求Burberry停止使用該張劇照,否則就要提起訴訟控告Burberry侵害Bogart的肖像權和商標權。在接受到Bogart後裔的要求後,Burberry隨即於紐約聯邦法院提出確認之訴,請求法院確認其使用並未侵害歸屬於Bogart後裔的商標或肖像權。因應Burberry的提告,Bogart後裔隨即於加州州法院提起商標侵權訴訟,請求法院發出禁制令,停止Burberry再使用Bogart的名字和任何照片。
雙方針對此一爭議各有主張及堅持。Burberry聲明該劇照是向專門從事照片、影像授權業務的Corbis公司取得授權而來,其主張使用該劇照主要是要描述Burberry在時尚產業的悠久歷史,以及該品牌的重要性及影響性,其並非利用該劇照來達到行銷Burberry的目的,所以其不認為開始用有任何侵權問題。此外,Burberry認為將該劇照使用在臉書的動態時報上這樣的行為是受到美國憲法第一修正案言論自由的保護。
Bogart後裔則認為Burberry使用劇照於市場行銷相關素材/媒介上,可明確看出其有意於Burberry實際及潛在消費者心中,將Burberry品牌及產品商業性連結至Bogart名人形象上,所以Burberry的行為已侵害到Bogart的商標權和肖像權。
Burberry及Bogart後裔雙方因應不同州法律採用策略性訴訟技巧,分別於紐約及加州提起訴訟,知名品牌和知名男星後裔的商標及肖像權之爭正式開戰,法院判決結果值得後續關注。
美國國家標準暨技術研究院(National Institute of Standard and Technology, NIST)2024年7月26日發布「人工智慧風險管理框架:生成式AI概況」(Artificial Intelligence Risk Management Framework: Generative Artificial Intelligence Profile),補充2023年1月發布的AI風險管理框架,協助組織識別生成式AI(Generative AI, GAI)可能引發的風險,並提出風險管理行動。GAI特有或加劇的12項主要風險包括: 1.化學、生物、放射性物質或核武器(chemical, biological, radiological and nuclear materials and agents, CBRN)之資訊或能力:GAI可能使惡意行為者更容易取得CBRN相關資訊、知識、材料或技術,以設計、開發、生產、使用CBRN。 2.虛假內容:GAI在回應輸入內容時,常自信地呈現錯誤或虛假內容,包括在同一情境下產出自相矛盾的內容。 3.危險、暴力或仇恨內容:GAI比其他技術能更輕易產生大規模煽動性、激進或威脅性內容,或美化暴力內容。 4.資料隱私:GAI訓練時需要大量資料,包括個人資料,可能產生透明度、個人資料自主權、資料違法目的外利用等風險。 5.環境影響:訓練、維護和運行GAI系統需使用大量能源而影響碳排放。 6.偏見或同質化(homogenization):GAI可能加劇對個人、群體或社會的偏見或刻板印象,例如要求生成醫生、律師或CEO圖像時,產出女性、少數族群或身障人士的比例較低。 7.人機互動:可能涉及系統與人類互動不良的風險,包括過度依賴GAI系統,或誤認GAI內容品質比其他來源內容品質更佳。 8.資訊完整性:GAI可能無意間擴大傳播虛假、不準確或誤導性內容,從而破壞資訊完整性,降低公眾對真實或有效資訊的信任。 9.資訊安全:可能降低攻擊門檻、更輕易實現自動化攻擊,或幫助發現新的資安風險,擴大可攻擊範圍。 10.智慧財產權:若GAI訓練資料中含有受著作權保護的資料,可能導致侵權,或在未經授權的情況下使用或假冒個人身分、肖像或聲音。 11.淫穢、貶低或虐待性內容:可能導致非法或非自願性的成人私密影像或兒童性虐待素材增加,進而造成隱私、心理、情感,甚至身體上傷害。 12.價值鏈和組件整合(component integration):購買資料集、訓練模型和軟體庫等第三方零組件時,若零組件未從適當途徑取得或未經妥善審查,可能導致下游使用者資訊不透明或難以問責。 為解決前述12項風險,本報告亦從「治理、映射、量測、管理」四大面向提出約200項行動建議,期能有助組織緩解並降低GAI的潛在危害。
美國FCC將檢視是否有必要加強隱私規定美國FCC於二月份表示其將檢視採取額外的安全措施,是否能夠有效防止電信公司所持有之個人敏感性資訊外洩之問題,並就與此所涉之問題與建議採取之法律措施諮詢公眾之意見。此次諮詢的議題包括目前電信公司所採取的安全措施為何、此等措施存有何種缺失、以及採取何種措施將能夠更有效地保護消費者的隱私,並就以下五種特定的安全措施,諮詢公眾之意見,包括: (1) 由消費者設定密碼。 (2) 建立一套查驗機制,此一機制必須能夠記錄消費者個人資料之接近使用情況,包括時間、接近使用的資料內容、接近使用人…等之資訊。 (3) 電信公司必須就客戶專有之網路資訊 (customer proprietary network information,CPNI)進行加密。 (4) 限制資料之保存,要求電信公司必須刪除所有不必要的資料。 (5) 當個人資料遭他非法接近使用時,電信公司應通知消費者。 除此之外,FCC亦就其是否應修改現行法規,要求電信公司應就其實施消費者保護措施之狀況,提交年度稽核報告以及全年之客訴資料進行公眾意見諮詢,並且就電信公司是否應於提供CPNI前,致電予消費者,以確保CPNI資料之索取係由消費者本人親為一事諮詢公眾之意見。
歐盟將立替代能源新法日前,歐盟執委會於2008年1月23日提交了一份關於整合性發展境內替代能源之新法制架構指令建議案,並欲藉該建議案來進一步促進生質能、太陽能與風能等相關新興能源技術之開發。該建議案還提到,歐盟所屬會員國原則上須依據於2005年當時替代能源之貢獻比例為基礎,再向上調增5.5%後來作為該會員國之替代能源預定貢獻目標。不過,考量各會員國之國情並不相同,故該建議案要求歐盟對於各會員國替代能源預定貢獻目標之制定,應採「差別化」之方式,使其可先自由調整與決定究欲採取何種比重與模式來發展各類替代能源,最後,再將所決定之能源發展策略大綱置於國家行動方案書內(National action plans, 簡稱NAP),並於2010年3月31日前提交執委會進行審核。此外,執委會也設定了一系列短期性目標,以確保能漸次穩定地朝2020年之目標前進。而有關開發生質能及永續性方面,鑑於生質燃料之發展仍具相當之爭議,故於飽受各界沉重之壓力下(如:非政府民間組織以及科學聯盟團體),未來布魯塞爾方面勢要提出一更加周嚴之永續性基準,以確保在該建議案所制定之生質燃油目標下,不會進一步導致生態系統失衡、森林濫伐、人口遷徙、糧食價格上漲以及釋放更大量CO2等問題產生。
德國向歐盟提交《人工智慧白皮書-歐洲卓越與信任概念》及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》意見德國聯邦政府於2020年6月29日,針對歐盟執委會於2020年2月19日公布的《人工智慧白皮書-歐洲卓越與信任概念》(Weißbuch zur Künstlichen Intelligenz – ein europäisches Konzept für Exzellenz und Vertrauen)及《人工智慧,物聯網和機器人技術對安全和責任之影響報告》(Bericht über die Auswirkungen künstlicher Intelligenz, des Internets der Dinge und der Robotik in Hinblick auf Sicherheit und Haftung) 提交意見,期能促進以負責任、公益導向、以人為本的人工智慧開發及使用行為,並同時提升歐盟的競爭力及創新能力。 歐盟執委會所發布的人工智慧的白皮書及人工智慧對安全和責任的影響報告,一方面可促進人工智慧使用,另一方面則藉此提醒相關風險。本次意見主要集結德國聯邦經濟與能源部、教育與研究部、勞動與社會事務部、內政、建築及社區部以及司法與消費者保護部之意見。德國政府表示,投資人工智慧為重要計畫之一,可確保未來的創新和競爭力,以及應對諸如COVID-19疫情等危機。最重要的是,可透過人工智慧的應用扶持中小型公司。然而在進行監管時,必須注意應促進技術發展而非抑制創新。 在《人工智會白皮書-歐洲卓越與信任概念》中指出,人工智慧發展應在充分尊重歐盟公民的價值觀和權利的前提下,實現AI的可信賴性和安全發展之政策抉擇,並於整體價值鏈中實現「卓越生態系統」(Ökosystem für Exzellenz),並建立適當獎勵機制,以加速採用AI技術為基礎之解決方案。未來歐洲AI監管框架將創建一個獨特的「信任生態系統」(Ökosystem für Vertrauen),並確保其能遵守歐盟法規,包括保護基本權利和消費者權益,尤其對於在歐盟營運且具有高風險的AI系統更應嚴格遵守。此外,應使公民有信心接受AI,並提供公司和公共組織使用AI進行創新之法律確定性。歐盟執委會將大力支持建立以人為本之AI開發方法,並考慮將AI專家小組制定的道德準則投入試行階段。德國政府指出,除了要制定並遵守歐洲AI的監管政策外,應特別注重保護人民之基本權,例如個人資料與隱私、消費者安全、資料自決權、職業自由、平等待遇等,並呼籲國際間應密切合作,運用人工智慧技術克服疫情、社會和生態永續性等挑戰。另外,德國政府亦支持將人工智慧測試中心與真實實驗室(監理沙盒場域)相結合,以助於加速企業實際運用,也將帶頭促進AI在公部門之運用。 在《人工智慧,物聯網和機器人技術對安全和責任之影響報告》中則指出,歐洲希望成為AI、IoT和機器人技術的領導者,將需要清楚、可預測的法律框架來應對技術的挑戰,包括明確的安全和責任框架,以確保消費者保護及企業合法性。AI、IoT和機器人技術等新數位技術的出現,將對產品安全性和責任方面出現新挑戰,而在當前的產品安全法規上,缺乏相關規範,特別是在一般產品的安全指令,機械指令,無線電設備指令等,未來將以一致地在各框架內針對不同法律進行調修。在責任方面,雖然原則上現有法令尚仍可應對新興技術,但人工智慧規模的的不斷變化和綜合影響,將可能增加對受害者提供賠償的困難度,導致不公平或效率低下的情形產生,為改善此一潛在不確定性,可考慮在歐盟層級調修產品責任指令和國家責任制度,以顧及不同AI應用所帶來的不同風險。德國政府除了支持歐盟作法,在創新與監管取得平衡,更強調應不斷檢視產品安全和產品責任法是否可滿足技術發展,尤其是對重要特定產業的要求,甚至修改舉證責任。並可透過標準化制定,加速人工智慧相關產品與服務的開發。另外,應依照風險高低擬定分類方法,並建議創建高風險AI系統之註冊與事故報告義務,以及相關數據保存、記錄及資料提供之義務,針對低風險AI應用則採自願認證制度。