居住於溫哥華的加拿大人Michael Hallatt(以下簡稱Hallatt),在加拿大設立了一家超市名為”Pirate Joe’s”,其貨品來源主要來自美國知名大型超商Trader Joe’s的產品,每年往來美國、加拿大平均花費近35萬美元購買Trader Joe’s的產品,包含有機沾醬、巧克力餅乾、裹著牛奶巧克力的洋芋片等熱門產品。 自稱為Trader Joe’s的最忠實客戶Hallatt,卻於今年(2013)被Trader Joe’s於美國境內提出訴訟,Trader Joe’s主張Hallatt經營Pirate Joe’s的方式侵害其商標權(trademark infringement)、不實廣告(false advertising)、使消費者誤認Pirate Joe’s有經Trader Joe’s授權或認同(false endorsement)等。 Trader Joe’s表示其花費大量時間及心力洞悉消費市場需求及產品推出時機點,逐項開發及製造產品,而Hallatt卻不費吹灰之力,直接買進相關產品後於加拿大以較高價格再次販售。Pirate Joe’s的經營模式可能誤導甚至欺瞞消費者使消費者誤認Pirate Joe’s為經過Trader Joe’s授權或同意之賣商。此外,Trader Joe’s認為Pirate Joe’s店面視覺上與Trader Joe’s超市外觀十分相近,有抄襲Trader Joe’s著名的商業表徵(South Pacific trade dress)。更甚者,Trader Joe’s認為Pirate Joe’s販售的有可能是已經受損的、過期的或其他不符合Trader Joe’s品管標準的產品,Pirate Joe’s這樣的銷售行為將導致Trader Joe’s無法解決前述所指出的產品潛在問題,嚴重毀損Trader Joe’s商譽及品牌形象。 另一方面,Hallatt則認為他僅是為了加拿大消費者方便,為消費者省去交通成本、時間等,讓消費者在加拿大即可購買到美國Trader Joe’s的產品,其認為其有權利再次銷售其合法購買取得的商品,即便他販售的價格稍微高些。 此訴訟目前仍在進行中,一方為美國知名大型超商Trader Joe’s,另一方為販售Trader Joe’s產品的加拿大超商Pirate Joe’s,在「品牌形象保護」及「產品合法再銷售範疇」兩者權衡下,究竟這場商標相關爭訟結果為何值得拭目以待。
奧克蘭市(Oakland)成為美國第三個禁止公部門使用人臉辨識技術的城市近年來,人臉辨識(Face recognition)技術迅速發展,增加便利性的同時,也伴隨了種種隱憂,如:對隱私權的侵害、公部門權力濫用等,是以加州舊金山市(San Francisco)和麻薩諸塞州薩默維爾市(Somerville)分別在今年(2019)5月和6月發布公部門使用人臉辨識技術的相關禁令,加州奧克蘭市(Oakland)並於7月16日跟進,成為美國第三個禁止公部門使用人臉辨識技術的城市。 2018年麻省理工學院曾針對人臉辨識技術的正確率做過研究,其研究結果報告顯示黑人女性辨識錯誤率超過30%,遠不如白人男性;美國公民自由聯盟(American Civil Liberties Union, ACLU)也針對Amazon人臉辨識軟體Rekognition做過測驗,結果該系統竟誤將28名美國國會議員顯示為嫌疑犯,這兩項研究顯示,人臉辨識技術存有極高錯誤率且對種族間存有很大的偏見與歧視。對此奧克蘭市議會主席卡普蘭(Rebecca Kaplan)一項聲明中表示:「當多項研究都指出一項新興技術具有缺陷,且造成寒蟬效應的時候,我們必須站出來」。 卡普蘭並表示:「建立社區和警察間信任與良好關係以及導正種族偏見是很重要的,人臉辨識技術卻反而加深此問題」、「對於隱私權和平等權的保護是最基本的」,故奧克蘭市通過禁止公部門使用人臉辨識技術的法令,原因如下: 人臉辨識系統所依賴的資料集,具高度不準確性。 對於人臉辨識技術的使用與共享,尚缺乏標準。 這項技術本身具有侵犯性,如:侵犯個人隱私權。 政府如果濫用該技術所得之資訊,可導致對弱勢族群的迫害。 雖然目前美國僅有三個城市通過政府機關禁止使用人臉辨識技術的法令,但依照目前的發展狀態,其他的城市甚至州在未來也可能會跟進頒布禁令。
歐盟公布資料保護相關指令適用意見書由歐盟二十七個會員國資料保護主管機關組成的第二十九條資料保護工作小組(The Article 29 Working Party)最近公布其應適用何國資料保護法規之意見書。 歐盟資料保護指令(EU Data Protection Directive)第四條對於蒐集或處理個人資料所應適用之法規有所規範,依該條規定,機構必須依其成立之國別適用該國資料保護法規;機構若於其他國家裝置設備處理資料,則須遵守設備所在地之法令。 隨著全球化的趨勢與新興科技的發展,目前處理資料機構之運作方式已與當初制定指令時有所不同,許多機構在世界各國設置營運點,向全球各地提供各類型服務,尤其是網際網路的發展,使得遠端服務及在虛擬環境下分享個人資訊更為容易,但同時也增加辨識資料處理所在地之困難度,因此工作小組提出該意見書,希望藉此釐清資料保護指令第四條之適用。 工作小組於該意見書中指出,資料保護指令所指的應適用法規,並非資料控制者(data controller)所在地之法規,而是附屬於該資料控制者並實質進行資料處理之機構的所在地法規。蓋因同一資料控制者可能在數國成立附屬機構,在此種狀況下判別適用法規的標準,應視實際上相關資料處理活動的發生地,亦即處理資料機構所在地。 而針對處理個人資料所使用之設備,工作小組表示,即使處理資料之機構並未擁有設備,而使用該設備處理個人資料時,亦可適用指令第四條之規定,需遵守設備所在地之相關法規;但工作小組同時特別釐清,以電信電纜或郵政服務等方式傳輸資料並不會落入資料保護法規之範疇。
人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。