美國紐約州通過「防止非法侵入與加強電子資料安全法案」

  2019年7月25日,紐約州州長Andrew Cuomo簽署「防止非法侵入與加強電子資料安全法案」(S.5575B/A.5635/Stop Hacks and Improve Electronic Data Security Act, 又稱SHIELD Act),目的在讓處理消費者個人資料的企業承擔更嚴格的責任。其核心精神在於,一旦發生與資料外洩相關的安全漏洞時,能及時進行適當的通知。同時,修改紐約州現有的資料外洩通知法,擴大個資蒐集適用範圍、個資定義 (例生物特徵、電郵資訊等)及資料洩漏定義、更新企業或組織之通知程序、建立合於企業規模之資料安全要求。此外,如違反通知義務,將處以最高5千美元或每次(未履行通知義務)20美元 (上限25萬美元)的民事賠償。且美國司法部長(The Attorney General) 亦得以紐約人民名義,代為起訴未實施資料安全規畫的企業,並按紐約民事執行法與規則(The Civil Practice Law And Rules)第63條進行初步救濟,依法強制禁止侵害行為繼續發生。該法預計將於2020年3月1日生效。

  當天州長亦簽署「身份盜用預防措施和緩解服務修正案」(A.2374/S.3582),新增資料外洩安全保護措施,要求消費者信用機構,提供受安全漏洞影響的消費者「身份盜用預防措施」(Identity Theft Prevention )與「緩解服務」(Mitigation Services),為消費者制定長期最低度的保護手段。其要求信用機構,通知消費者將有關社會安全號碼的資料洩漏事件進行信用凍結,並提供消費者無償凍結其信用的權利。該法預計將於2019年10月23日生效,並且溯及既往適用該法案生效之日前三年內所發生之任何違反消費者信用安全的行為。

本文為「經濟部產業技術司科技專案成果」

相關連結
你可能會想參加
※ 美國紐約州通過「防止非法侵入與加強電子資料安全法案」, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8321&no=67&tp=1 (最後瀏覽日:2024/07/16)
引註此篇文章
你可能還會想看
歐洲專利局拒絕以AI為發明人的專利申請

  歐洲專利局於2019年12月20日,拒絕受理兩項以人工智慧為發明人的專利申請,並簡扼表示專利上的「發明人」以自然人為必要。另於2020年1月28日發布拒絕受理的完整理由。   系爭兩項專利均由英國薩里大學教授Ryan Abbott(下稱:專利申請人)的團隊申請,並宣稱發明人是「DABUS」。DABUS並非人類,而是一種類神經網路與學習演算法的人工智慧,由Stephen Thaler教授發明並取得專利。專利申請人先於2019年7月24日將自己定義為DABUS的雇主並遞出首次專利申請,再於2019年8月2日改以權利繼受人名義申請(Successor in Title)。專利申請人強調系爭申請是由DABUS發明,且DABUS在人類判定前,即自我判定其想法具新穎性(identified the novelty of its own idea before a natural person did)。專利申請人認為該機器應可以被視為發明人,而機器的所有人則是該機器創造出的智慧財產權之所有人─這樣的主張是符合專利系統的主旨,給予人們揭露資訊、商業化和進行發明的動機。申請人進一步強調:承認機器為發明人可以促進人類發明人的人格權和認證機器的創作。   在經過2019年11月25日的聽證程序(Oral Proceedings)後,歐洲專利局決定依《歐洲專利公約》(European Patent Convention)Article 81, Rule 19 (1)駁回申請。歐洲專利局強調,發明人必須是自然人(Natural Persons)是國際間的標準,且許多法院曾經對此做過相應的判決。再者,專利申請必須強制指定發明人,因為發明人需要承擔許多法律責任與義務,諸如取得專利權後衍生的法律權利。最後,雖然Article 81, Rule 19 (1)規定發明人應該要附上姓名與地址,但單純幫一個機器取名字,並不會使之符合《歐洲專利公約》的發明人要件。歐洲專利局強調,從立法理由即可知道,《歐洲專利公約》的權利主體僅限自然人和法人(Legal Persons)、專利申請的發明人僅限自然人。歐洲專利局表示,目前AI系統或者機器不具有權利,因為他們沒有如同自然人或法人一樣的人格(Legal Personality)。自然人因為生命而擁有人格,而法人的法人格來自於法律擬制(Legal Fiction)。這些法律擬制的人格來自於立法者的授權或者眾多司法判決的演進,而AI發明者是不具有此般的法律擬制人格。

日本公布新創事業與廠商合作之指針草案,統整雙方不對等契約關係之問題並提出改善建議

  日本經濟產業省、公平交易委員會及特許廳於2020年12月23日發布「Startup與廠商合作之相關指針」(スタートアップとの事業連携に関する指針)草案,並自同日起至2021年1月25日止向外徵求公眾意見。近年,日本國內一方面看重新創事業與大型企業合作所帶來的優勢;另一方面,在此種合作關係下,雙方的契約關係亦浮現如名為共同研究、卻由大型企業方獨占專利權等問題。基此,配合2020年4月未來投資會議的決議要求,統整新創事業與大型企業間不對等契約關係的問題與提出改善建議,並參考同年11月公平交易委員會所發布的「Startup交易習慣之現況調查報告最終版」(スタートアップの取引慣行に関する実態調査について最終報告),擬定本指針草案。   本指針主要著眼於新創事業與企業間的保密協議(Non-disclosure agreement, NDA)、概念驗證(Proof of Concept, PoC)契約、共同研究契約與授權(license)契約等四種契約類型。除了統整包含訂約階段在內的各種問題實例、以及日本獨占禁止法(私的独占の禁止及び公正取引の確保に関する法律)對此的適用現況外,亦提出了相應的改善與解決方案。舉例而言,指針草案指出,新創事業可能會被合作廠商要求對其公開營業秘密,卻未能簽訂保密協議。對此,合作廠商即可能構成獨占禁止法上濫用其優勢地位之行為。會造成此狀況發生的實務情境,可能為合作廠商承諾事後會簽署保密協議,但要求新創事業先行揭露其程式的原始碼等營業秘密等。而原因則主要包含新創事業缺乏足夠法律素養(literacy)、以及有關開放式創新的相關知識不足等。基此,指針提出改善方案,例如,締約前新創事業即先行區分出可直接向契約他方揭露的營業秘密、得透過締結NDA約定揭露之營業秘密、以及不得揭露之營業秘密等;締結NDA時,應盡可能具體約定營業秘密的使用目的、對象及範圍,並且考量到通常難以舉證廠商違反保密協議,因此不建議揭露攸關新創事業核心能力(core competence)的營業秘密。

歐盟議會發布《可信賴人工智慧倫理準則》

  2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。  問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。

德國聯邦資料保護暨資訊自由官聲明病人資料保護法恐違反GDPR

  德國聯邦資料保護暨資訊自由官(Der Bundesbeauftragte für den Datenschutz und die Informationsfreiheit,BfDI)Ulrich Kelber教授於2020年8月19日指出,2020年7月3日甫由德國議會通過的病人資料保護法(Gesetz zum Schutz elektronischer Patientendaten in der Telematikinfrastruktur; Patientendaten- Schutzgesetz, PDSG),恐違反歐盟一般資料保護規則(GDPR)。   該法規定自2021年起,健康保險業者必須向被保險人(病人),提供電子病歷(ePA)。而自2022年起,病人有權要求醫生將病人相關資料記錄於電子病歷,包括健檢結果、醫學報告或X光片、預防接種卡、孕婦手冊、兒童體檢手冊、牙科保健手冊等,而被保險人更換健康保險業者時,可要求移轉其電子病歷至新的健保公司。另外,2021年起將可透過手機,下載電子處方並至藥局領取處方藥。2022年1月1日起,將全面強制使用電子處方,病人將可透過智慧手機或平板電腦,決定他人對於電子病歷之近用權限。病人若無手機,可至健保公司查看電子病歷。依照規劃,目前電子病歷的使用仍採自願性。病人可決定保存或刪除哪些資料,以及誰可以近用該文件。自2023年起,被保險人可自願提供電子病歷資料作為研究用途,而因上述研究可處理病人資料之醫師、診所和藥劑師等,有義務確保其資料安全。   BfDI於立法過程中多次強調,在導入電子病歷使用時,病人必須可完全控制自己的資料。而該法規範僅提供病人使用部分設備,例如智慧手機或平板電腦,設定其電子病歷之存取權限,此意謂著將有一段空窗期,病人無法決定其電子病歷中各文件之存取權限。而對於電子病歷中,可否僅開放部分資料供瀏覽或存取,亦受到聯邦資料保護暨資訊自由官質疑。另外,對於無法或不想在手機或平板電腦上使用上述功能的人,本法並未進一步規定,亦即2022年起,上述病人為了能夠檢查或接受醫療,必須強迫病人控制其相關資料,但目前顯然尚缺乏相關配套。此外,以資料保護角度而言,目前電子病歷之認證程序有安全疑慮,尤其是未使用電子健康卡的替代驗證程序尚不夠嚴謹,因此命令相關單位應於2021年5月前完成改善。   電子病歷是對醫療保健改善的重要一步,因此相關健康資料保護需要符合GDPR規範水平。電子病歷雖已逐漸受到認可與重視,惟當前病人資料保護法恐無法完全保護病人資料安全。因此,BfDI將透過監管手段,確保健康保險公司不會因提供電子病歷而違反GDPR。

TOP