網路搜尋引擎龍頭Google靠其所提供的關鍵字搜尋服務在廣告市場上已獲取一定之利潤,惟此種服務並沒有獲得全球各地品牌持有人的認同,因此而向Google提起訴訟者,亦所在多有;然而,針對關鍵字廣告的訴訟,Google在歐盟法院的判決中很有機會取得初步的勝利。 所謂關鍵字廣告,係指廣告主使用此項服務時,得以自行命名「引發曝光」的關鍵字(Keyword Triggers),該關鍵字可設定為品牌之名稱,亦即當一般民眾使用搜尋功能,輸入特定品牌名稱作為關鍵字時,搜尋結果就會出現當初命名該關鍵字的廣告主網站訊息,只是同樣的關鍵字也有可能為競爭對手甚或商品仿冒者所使用;換言之,民眾輸入特定品牌名稱並點擊「搜尋」之後,搜尋結果將有可能同時出現品牌持有人、競爭對手,或是仿冒者三種不同角色。從而包含Louis Vuitton在內的歐洲知名精品商,相繼以此理由向Google提起訴訟,強調該項服務使廣告主不需經商標權人允許即可使用其商標,Google係已侵害其商標權。 對此,歐盟法院顧問卻認為,廣告主選擇特定關鍵字之後並非直接產生商品販售或是服務提供的行為,亦即使用關鍵字搜尋本身並不會造成商標的侵害或淡化,真正使其權利受損者,乃係廣告主所提供令人混淆的廣告內容。故Google所提供的關鍵字廣告服務,雖未對品牌名稱設下限制,惟「自由選取品牌名稱為關鍵字」一事,並不會侵害品牌持有人之商標權;但需注意者是,經由關鍵字產生的廣告內容中,如果品牌持有人得以舉證該內容已侵害其商標時,Google仍可能負有侵害責任。 歐盟法院顧問之見解雖然並非具有實質的拘束力,但約莫八成的案件顯示,歐盟法院多數將會採納顧問的意見。上述案件將有可能在11月份做出正式判決,令人拭目以待。
印第安那州對違反個資外洩通報義務之保險公司提起訴訟印第安那州首席檢察官Greg Zoeller對Wellpoint保險公司提起訴訟標的金額30萬美元之損害賠償訴訟,主張該公司因遲延向首席檢察署及超過32,000萬因個人資料外洩影響所及之客戶通報個資外洩事件,而違反印第安那州通報法〈Indiana notification laws〉中通報及揭露規定〈Chapter 3. Disclosure and Notification Requirements及Chapter 3. Disclosure and Notification Requirements〉,依法各得請求15萬美元罰金,此為印第安那州提起之首件違反通報義務之訴訟。 前述法令於2009年7月生效,新法規定個人資料擁有者〈database owners〉負有「通報義務」,其於個資外洩事件發生後,必須在「合理期間」〈within a reasonable period of time〉內,對「潛在受影響之個人」〈both the individuals potentially affected by a data breach〉,以及檢察署通報,惟經調查,該公司未於合理時間內通報前述應通報之對象。 經查該公司於今〈2010〉年2、3月間即發現客戶個資外洩,卻6月18日始通知客戶,檢察署展開調查後認定其遲延通報無正當理由,故代表印地安那州向其提起民事賠償。 前述所指外洩之個人資料包括:提出投保申請者之個人資料內容,諸如「社會安全碼」〈social security number〉、「財務資訊」〈financial information〉、「健康記錄」〈health records〉,因該保險公司網頁之照管者〈siteminder〉未能實行安全防護,使盜竊身分之人〈identity thief〉得以改變統一資源定址器〈URL〉而窺見申請者的個人資訊。 除印第安那州客戶外,該保險公司因客戶個資外洩亦使其他州投保申請者資訊曝露,包括:美國加州、科羅拉多、康乃迪克、肯特基、密蘇里、內華達、新罕布夏、俄亥俄及威思康辛等九個州,約有47萬個客戶可能因此受影響。
歐盟和德國對於自動駕駛及智慧交通系統之個人資料保護發展 IBM提出「人工智慧日常倫理」手冊作為研發人員指引隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。