2015年3月,暴雪公司(BLizzard Entertainment)在官網上公開宣稱,手機遊戲《刀塔傳奇》並未經過其授權,而其角色場景均涉嫌抄襲「魔獸爭霸」與「魔獸世界」多項重要角色,其後在美國、大陸台灣等地對《刀塔傳奇》開發商莉莉斯公司提出告訴。而 Courthouse News Service近來指出,美國地方法院於2015年12月17日駁回暴風公司對莉莉斯公司的訴訟。
美國的著作權法不保護虛擬角色,但仍有例外。依據上訴法院在1978年的Halicki Films訴Sanderson Sales and Marketing一案標準,若該虛擬角色具有特別特色(especially distinctive)則可例外予以保護,而特別特色需要有相當證據證明設計者為原告且具有獨特的特徵,方得予以主張。美國地院目前認為而暴雪公司目前提出角色姓名、服裝、武器、背景設定等證據資料,尚無法說明暴雪公司所創角色具有獨特性,故予以駁回。而暴雪公司則於12月22日發出正式聲明,認為現階段並非侵權主張不成立,而是訴訟資料不齊全,並著手提交更詳盡的證據清單,暴雪公司會於修正訴狀後,再提起訴訟。
雖然暴雪公司在美國對莉莉斯訴訟遭受駁回,但其在中國大陸對《刀塔傳奇》代理商與莉莉斯公司所提告訴,已讓蘋果公司(Apple, Inc.)讓《刀塔傳奇》從App store下架;而美國法院判決是否使蘋果公司在中國大陸重新上架《刀塔傳奇》,則有待觀察。
擁有Lancome、YSL(Yves Saint Laurent)及Garnier等全球知名品牌的法國L'Oreal集團,於2007年9月向於英國、法國、德國、比利時及西班牙等五國的法院提起商標侵權訴訟,控告全球網拍龍頭eBay放任網路使用者於eBay出售仿冒的香水、化妝品及其他L'Oreal集團產品,導致L'Oreal蒙受重大損失,主張eBay應為網路使用者的侵權行為負起連帶責任。 但繼2008年8月比利時法院率先判決eBay勝訴後,2009年5月法國及英國法院亦接連判決eBay勝訴。法國巴黎法院於5月14日作成的裁決中,表示eBay已恪遵自身所負義務並以良善態度解決仿冒商品問題,因此eBay毋庸為網路使用者的侵權行為加以負責;法院同時表示eBay與L'Oreal雙方應攜手合作,共同制定打擊侵權行為的策略,以防制仿冒商品繼續透過網路販售流通。 法方判決eBay勝訴未久,英國法院緊接於5月22日判決eBay勝訴,對於接連獲勝,eBay仍再三強調本身僅係一單純提供商品交易服務之平台,自無須就使用者侵權行為加以負責;L'Oreal則表示eBay有責採取進一步的措施,以杜絕網路使用者販售仿冒的L'Oreal商品,其並表示未來仍將以eBay助長商標侵權為由,持續於歐洲各國提出訴訟。
美國2015年「消費者隱私權法案」簡介 德國法院判決,網站上“連絡我們(Contact-Formula)”非屬德國電信服務法第5條規定之電子聯繫資訊德國Essen地方法院判決(Az. 44 O 79/07),網站上之聯絡我們的功能(Contact-Formula),並不符合網路服務者依德國電信服務法第5條(Telemediengesetz, TMG)所應遵守之資訊揭露義務*。 根據德國電信服務法第5條第1項第2款規定,網路服務提供者之資訊揭露義務範圍,包括應提供一個供網路使用者可以快速且直接聯繫網路服務提供者之電子聯繫方式,例如提供電子郵件。 按德國電信服務法第5條規定目的在提供消費者法定之保護,而違反本條規定者,將可依德國「不正競爭防止法,UWG」第4條第11款及第2條第1項第2款規定,視為違反公平競爭之行為。 該法院認為,網站上「連絡我們功能(Contact-Formula)」性質上僅屬於一個用以製造連結的科技措施,使用者需填寫網站上表格,按下傳送鍵後,始能得知網路服務者之電子郵件,而有些網站甚至無法顯示網路服務者之電子郵件。 我國於「電子商務消費者保護綱領」第5點企業經營者應提供有利於消費者選擇及進行交易之充分資訊包括「企業經營者本身資訊」,例如登記名稱、負責人姓名及公司簡介、公司或商號所在地及營業處所所在地、電子郵件、電話、傳真等聯絡方式及聯絡人等資訊,資訊提供範圍與德國電信服務法第5條第1項第2款大抵相同。 *德國電信服務法(TMG)第5條網路服務者應揭露之資訊範圍包括其聯繫資料、特許職業執照證號、營利事業登記證號等。
經濟合作與發展組織發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。