隨著英國國家健康服務(National Health Service, NHS)的改革,英國於去(2012)年3月27日通過衛生和社會照護法(The Health and Social Care Act 2012)。當中一項主要的變革即是成立衛生與社會照護資訊中心(The Health and Social Care Information Centre, HSCIC)作為醫療健康資料的專責機構。而這樣的變革,也影響過去病歷資料的蒐集、分享和分析方式。依據衛生和社會照護法的規定,HSCIC若受到衛生部長(Secretary of State for Health)指示、或來自照護品質委員會(Care Quality Commission, CQC)、英國國家健康與臨床卓越研究院(National Institute for Health and Clinical Excellence, NICE)、醫院監管機構Monitor的命令要求時,在這類特定情況之下,可以無需尋求病患同意,而從家庭醫師(GP Practice)處獲得病患的個人機密資料(Personal Confidential Data, PCD)。
今(2013)年3月獲NHS授權, 由HSCIC於6月開始執行的care.data服務,即是依據前述立法所擬定之方案。care.data藉由定期蒐集醫療照護過程中的相關資料,對病患於國內所為的各項健康和社會照護資訊(例如病患的住院、門診、意外事故和緊急救護記錄)進行具延續性之連結。以提供即時、正確的NHS治療和照護資訊給民眾、門診醫師和相關部門之官員,進而達到care.data所設定的六項目標,支援病患進行治療的選擇、加強顧客服務、促進資訊透明性、優化成果產出、增加問責性,並驅動經濟成長。
然而,由於care.data是以英國民眾就醫行為中,屬於基礎醫療的家庭醫師(General Practitioner, GP)系統為基礎,所提取的資料包括家族歷史、接種疫苗、醫師診斷、轉診記錄、生理指標,以及所有NHS處方。其次,care.data在進行初級和次級資料連結時,將會透過NHS號碼、生日、性別和郵遞區號,這四項可識別資料的比對。因此雖然care.data在涉及敏感性資料時會加以排除,但此項服務仍引起社會上相當大的爭議。包括部分醫師、隱私專家和的社會團體皆提出質疑,質疑care.data是否有充分告知病人、HSCIC所宣稱的匿名性是否足夠、此項服務對醫病關係的衝擊、該服務所宣稱的資料分享退出機制(opt-out)並未妥善等。
care.data是NHS所推出的創新資料現代化服務,但同時也涉及病患隱私權保護之議題。反觀我國近來所推動的醫療健康資訊加值再利用政策,英國的案例值得我們持續觀察其發展。
英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議: (一)關於人工智慧及應用界定與發展 人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。 (二)未來對社會及政府利益及衝擊 人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。 目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。 在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。 (三)關於相關道德及法律風險管理課題 人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考: (1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。 (2)調適由人工智慧作決策行為時的歸責概念和機制。 有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。 針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。 人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。
日本與東南亞國家協會共同發表關於智慧財產權聯合聲明於106年5月15、16日,在日本舉行第七屆「東南亞國家協會」(又稱ASEAN)與日本專利局的智慧財產權座談會,這次會議的目的,是以加強東南亞國家協會與日本的「智慧財產權商業環境」合作,並通過了日本與東南亞國家協會的聯合聲明。 一、背景 東南亞國家協會是日本繼美國與中國大陸後第三大進出口地,同時也是日本企業界未來短期、長期投資的目的地,日本企業看好將來在東南亞國家協會的業務發展。東南亞國家協會在2015年設立東協經濟共同體(AEC),其後並發表「東協經濟共同體(AEC)2025綜合戰略行動計畫」,根據計畫內容,討論智慧財產權相關議題。日本專利局藉此鼓勵日本企業於東南亞國家協會發展業務,並積極展開與東南亞國家協會智慧財產權工作小組(AWGIPC)的合作。 二、結果概要 配合「東南亞國家協會2016-2025智慧財產權行動計畫」,日本與東南亞國家協會共同確立了中、長期智慧財產權的合作方向: 更新並訂立專利手冊(即專利審查指南)。 東協暨東亞經濟研究院(ERIA)共同研究與預測未來在東南亞國家協會關於智慧財產權的申請數量並提出建議。 鼓勵簽署並加入其他國際組織。 健全人力資源開發及考核管理。 鼓勵智慧財產權商業化並重視智慧財產權的重要性。 加強智慧財產權執法機構間的相互合作。 透過此次日本專利局與東南亞國家協會的智慧財產權會議,日本將持續支持並致力於與東南亞國家協會在智慧財產權上的保護。
美國第9巡迴上訴法院於2015年7月6日宣布Multi Time Machine v. Amazon案的見解美國第9巡迴上訴法院(9th Circuit)於2015年7月6日對外宣布Multi Time Machine v. Amazon案的見解,其推翻地方法院看法,認定被告Amazon公司提供的服務有侵害原告Multi Time Machine公司商標權之虞。 本案原告Multi Time Machine公司是一家製作手錶的廠商,在被告Amazon公司的網站上有提供零售服務。原告認為被告網站提供之服務,可使消費者搜索網站內的物品,但其所得之結果(含圖片)卻容易令人混淆,如搜尋原告的MTM手錶(為Multi Time Machine之商標),會將商標權人及其他廠商的商品都包含在內,導致消費者誤認為其他廠商手錶也是由MTM製造,進而購買非原告公司生產之手錶。原告因而向地方法院提出訴訟,認為被告Amazon公司侵害其商標權,違反聯邦法典內之Lanham Act的第1114條(1)(a)及第1125條(a)(1)規定。但洛杉磯地方法院認為被告行為並未侵害商標權,原告不服故提起上訴。 第9巡迴上訴法院採用1979年AMF v. Sleekcraft Boats案認定之方式,並於2011年Network Automation v. Advanced System Concepts案後發展出的測試標準,用以判斷有無侵害商標權。其標準包含:1.商標的強度、2.商品近似或相關連程度、3.與商標的相似性、4.實際混淆之證據、5.銷售管道、6.消費者在意程度、7.被告意圖、8.擴展之可能性。上訴法院認為,本案除了3、5、8三項較無關外,其餘5項因素經法院研究結果,原告商品在被告網站上販售時,1、2、7於原告影響較大,而4、6是被告提供服務(即供消費者購買)時須在意的。因此,綜合判斷之結果,被告行為已可能侵害原告之商標權,故推翻地方法院之判決結果,發回地方法院續行審理,本案後續判決進展及結果實值持續觀察。
歐盟提出人工智慧法律調和規則草案歐盟執委會(European Commission)於2021年4月21日提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(簡稱AI規則草案),旨在平衡「AI運用所帶來的優勢」與「AI對個人或社會所帶來的潛在負面衝擊」,促使會員國在發展及運用AI時,能採取協調一致的態度及方法,共同維護歐洲公民基本權利與歐盟價值。 歐盟自2019年起即倡議發展「值得信賴的AI」(Trustworthy AI)。AI規則草案之提出,除了落實執委會2019年至2024年之政策願景外,亦呼應2020年歐洲議會(European Parliament)之建議—針對AI應用之機會與利益採取立法行動,並確保合乎倫理原則。惟鑒於歐盟在環境、健康、公共事務、金融、交通、農業等領域對AI應用之高度需求,以及企業仰賴AI技術提升競爭優勢等因素,執委會係以「風險為基礎」之概念取向(risk-based approach)制定AI規則草案,避免對新技術發展造成不必要的限制或阻礙。 本規則草案將AI系統,依其「對歐盟基本權利或價值所創造的風險程度」,分為下列三種類型,並施以不同程度的監理方式: 一、不可接受之風險:原則上禁止使用此類型AI系統或使其進入歐盟市場。例如:利用潛意識技術操控個人、在公共場合利用「即時遠端生物辨識系統」進行執法、公務機關普遍對個人進行社會評分等。 二、高風險:於附錄中列出所謂高風險AI系統,要求高風險AI系統之提供者遵循風險管理、資料治理、文件紀錄保存、透明性與資訊揭露、人為監督、健全性、準確性與資安等要求;且AI系統進入歐盟市場前,需進行符合性評估(conformity assessment),進入市場後,則需持續監控。 三、非不可接受之風險亦非高風險:鼓勵AI系統提供者或使用者,自願建立行為準則(codes of conduct)。 AI規則草案亦鼓勵會員國建立AI監理沙盒(regulatory sandbox)機制,且以中小企業、新創公司為優先對象,使創新AI系統進入市場之前,能於可控環境中依明確計畫進行開發、測試與驗證。