2019年7月24日,世界智慧財產權組織(World Intellectual Property Organization, WIPO)、美國康乃爾大學(Cornell University)、歐洲工商管理學院(INSEAD)共同發布「2019年全球創新指數報告」(Global Innovation Index 2019, GII)。GII報告每年度發行一份,希望幫助全球決策者更有效地制定政策及促進創新。本年度的報告主題是「創造健康生活─醫療創新之未來展望」,內容展望創新醫療,包括:導入人工智慧(artificial intelligence, AI)、基因體學(genomics)和健康醫療相關的手機應用程式,將會改變醫療照護。醫療創新無論是在診斷或預後,由於大數據、物聯網(Internet of Things, IoT)和人工智慧等新興科技的興起而改變。伴隨而來的是倫理、社會經濟等多方面、史無前例且迫切的挑戰。報告中提及幾項重要發現:
GII依據80項指標評比129個經濟體,指出,全球創新指數最高的國家排名前五名為:瑞士、瑞典、美國、荷蘭、英國,均為高所得國家。中高所得國家創新指數前三名為:中國、馬來西亞、保加利亞;中低所得國家前三名為:越南、烏克蘭、喬治亞;低所得國家前三名則是:盧安達、塞內加爾、坦尚尼亞。至於區域性的創性領袖國是印度(中亞與南亞)、南非(撒哈拉以南非洲)、智利(拉丁美洲和加勒比海地區)、以色列(北非與西亞)、新加坡(東南亞、東亞與大洋洲)。最頂尖的自然與科技聚落所在國家為:美國、中國、德國;並特別指出巴西、印度、伊朗、俄羅斯、土耳其表現亮眼。最頂尖五大聚落是東京-橫濱(日本)、深圳-香港(中國大陸)、首爾(南韓)、北京(中國大陸)、聖荷西-洛杉磯(美國)。
本文為「經濟部產業技術司科技專案成果」
歐盟委員會與美國白宮於2022年3月25日發布聯合聲明,宣布雙方已就新的跨大西洋資料傳輸框架達成原則性協議。此舉旨在因應2020年7月歐盟法院(Court of Justice of the European Union)於Schrems II案的判決中宣告「歐盟—美國隱私盾協定」(EU-US Privacy Shield Framework)不符合歐盟一般資料保護規則(General Data Protection Regulation, GDPR)而無效。依照該聯合聲明,新的框架將在雙方間資料流動的可預測性、可監督性、可信賴性以及可救濟性等方面進行補強,以充分維護公民的隱私與自由權利。 目前,該框架仍處於原則性協議的階段,具體細節仍有待後續談判。聯合聲明指出,美國在下列三個方面做出了「重大承諾」: 加強控管美國的情報活動,以確保所追求國家安全目的適法,且所採取的手段係在必要範圍內,而未過度侵犯公民的隱私與自由。 建立具有約束力且獨立的多層次救濟機制,其中包含一個由非政府人員所組成的「個人資料保護審查法院」,並賦予該組織完全的審判權。 針對情報活動強化分層且嚴格的行政監督機制,以確保其合乎隱私與自由的新標準。 上述原則性協議的達成,表面上無疑是一項好消息,將有助於解決雙方跨境資料傳輸的法源爭議,並避免持續演變成嚴重的歐美貿易爭端。然而,美國政府能否順利將新框架轉化為具有約束力的國內行政命令,仍存在相當多的不確定因素。若結果為否,則最終亦難以達成取得歐盟根據GDPR所為「適足性認定」(adequacy decision)的政策目標。
美國發布了「消費者隱私權法」草案美國白宮在2015年2月27日發布了「消費者隱私權法」(Consumer Privacy Bill of Rights Act)草案,目的在於擴大消費者資料的保護範圍。 該草案的重點分列如下: 透明性:受規範主體必須提供資訊主體簡潔、明顯、易懂的公告,公告內容必須提供簡潔、明瞭及即時的隱私與安全運作,包含資訊保存、揭露以及個人資料存取機制。 個人控制:受規範主體應該在合理範圍內提供機制,讓資料主體能控制其個人資料之處理,同時也規範應讓消費者撤銷個人資料使用的同意。 注重資料蒐集與合理使用:受規範的公司機構必須依據其清楚、合理的說明規則來進行個人資料的蒐集、保存與利用。同時,在資料蒐集之特定目的完成後的合理時間內,必須針對所蒐集的個人資料進行刪除或是去識別化。 安全性的維護:為了維護個人資料之安全性,以防止其遺失、陷入危險、改變以及未經授權之使用或是揭露,公司機構必須進行安全風險評估,並且採取合理的資訊安全防護措施。 存取與正確性:受規範的公司機構必須提供資訊主體合理的存取權利,同時也應該採取合理的步驟,來維護資料的正確性。 擔負隱私維護的責任:受規範的公司機構必須針對員工實施資安教育訓練、進行隱私評估、隱私設計、遵守隱私保護義務以及採取適當的措施來遵循本草案之規定。 不受本草案規範之公司機構: 25名員工以下的小型公司,且其處理者僅限於員工與求職者之個人資料。 未刻意蒐集、處理、使用、保存或揭露個人病史、原生國籍、性傾向、性別、宗教信仰、資產狀況、精確的位置資訊、獨一無二的生物識別資料或是社會安全號碼,並符合以下要件之一者: 在12個月內蒐集個人資料筆數在10,000筆下; 5名員工以下。 除了要求產業發展處理消費者資料的標準或規則,該草案也要求「聯邦貿易委員會」(Federal Trade Commission, FTC)確認產業所制定的標準或規則必須符合「消費者隱私權法」的規定,包括提供消費者有關其資料如何被收集、使用與分享的明確通知。如果進行消費者資料收集的公司機構違反了「消費者隱私權法」,將會面臨FTC或是州檢察長所發起的法律行動。 該草案引起了產業界極大的反彈,隱私團體也批評該草案太過寬鬆,留給產業界太多自由空間,同時目前國會由共和黨所主導,因此後續立法工作的進行將會面臨極大的挑戰。
以自己姓氏Chanel作為髮廊名稱引發商標侵權訴訟如同一般事業經營者,位於印地安那州的一名女士Chanel Jones(以下簡稱Jones),以自己的姓氏Chanel作為自營髮廊的名稱”Chanel’s Salon”。然而這看似普遍平凡的舉動卻引來令Chanel Jones始料未及的訴訟爭議。 今年(2014)8月Chanel Inc.(以下簡稱Chanel公司)對Jones提起訴訟,主張Jones違反商標法及不公平競爭法,剽竊Chanel公司長期耕耘的品牌名氣、識別度及良好商譽,其行為可能造成消費者錯誤連結印象認為Chanel公司是Jones開設髮廊的經營者或贊助者,並請求法院判決禁制令禁止Jones使用其名Chanel作為髮廊名稱。 根據Chanel公司的起訴書,Jones兩年前開始使用Chanel’s Salon作為髮廊名稱,而2013年7月開始Chanel公司寄給Jones停止侵權通知書(cease-and-desist letter)要求他不得再將Chanel出現於其髮廊名稱中,隨後又再度寄了四封追蹤/跟催信(follow-up letter),但Jones始終未作任何回應,所以Chanel公司才於今年提起訴訟。 經歷了數月之後,於今年12月16日,Jones於此商標戰中屈服,當庭與Chanel公司達成和解,法官作出和解決定書(consent judgment),和解決定書中載明永久禁止Jones再使用其姓氏Chanel於髮廊名稱,並且於2015年2月15日前將所有提及Chanel的內容全部移除。雙方並且於簽定的和解判決書中認定使用Chanel名稱是侵犯Chanel公司商標權的行為。 值得一提的是,如同起訴狀內容,此和解決定書中亦特別謹慎正視Chanel是Jones姓氏的這個事實。內容提及並非Jones再也無法使用自己的姓名於任何個人且非商業性的場合或用來識別指稱自己,只要Jones使用其姓名的行為不會產生任何與Chanel公司密切關連或關係的隱含。 Chanel公司大動作維權行為並非首舉,事實上這個擁有105年歷史的精品時尚品牌不僅早於1924年開始就陸續申請註冊商標,一直以來也非常積極維護其品牌商標權,從一系列的維權舉動似乎也可看出百年品牌對於商標保護的重視,透過商標侵權的制止、商標權利的維護,堅定地捍衛其品牌於精品時尚業屹立不搖的地位。
英國資訊委員辦公室提出人工智慧(AI)稽核框架人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。