美國FDA(Food and Drug Administration)於2019年11月22日發布「保密證書(Certificates of Confidentiality, CoC)」指引草案。保密證書之目的在於防止研究人員在任何聯邦、州或地方之民事、刑事、行政、立法或其他程序中被迫揭露有關研究參與者可識別個人之敏感性資料,以保護研究參與者之隱私。保密證書主要可分為兩種,對於由聯邦所資助,從事於生物醫學研究、行為研究,臨床研究或其他研究,於研究時會收集可識別個人之敏感性資料之研究人員而言,保密證書會依法核發予該研究人員,稱為法定型保密證書(mandatory CoC);而對於從事非由聯邦所資助之研究的研究人員而言,原則上保密證書不會主動核發予該研究人員,惟當研究涉及FDA管轄之產品時,可由FDA自行裁量而核發保密證書,稱為裁量型保密證書(discretionary CoC),本指引草案旨在提供裁量型保密證書之相關規範。
FDA建議裁量型保密證書之申辦者先自問以下四個問題,且所有問題之答案應該皆為肯定:(1)申辦者所參與之人體研究是否收集可識別個人之敏感性資料?(2)申辦者是否為該臨床研究之負責人?(3)申辦裁量型保密證書之人體研究是否涉及受FDA管轄之產品的使用或研究?(4)申辦者之研究措施是否足以保護可識別個人之敏感性資料之機密性?
於FDA完成審查後,將向申辦人傳送電子回覆信件,表明是否核准裁量型保密證書。若結果為核准,則該電子回覆信件即可作為保密證書。該保密證書之接受者應執行法律所規定以及FDA於電子回覆信件中所要求之保證事項,以保護人體研究參與者之隱私。
本文為「經濟部產業技術司科技專案成果」
美國國會能源及商業委員會( Energy and Commerce Committee )於 2006 年 3 月 8 日 透過匿名表決的方式,通過「防止詐欺取得通聯記錄法」草案( Prevention of Fraudulent Access to Phone Records Act ),希望透過立法的方式保障消費者之隱私權,並要求電信公司加強保護消費者之通聯記錄。由於各黨派對本法案已有共識,故預計於近期排入國會議程後,順利完成立法。 根據美國國會議員 Joe Barton 表示,美國目前對於電話通聯記錄的取得並未進行規範,任何人均可輕易的透過網路購得相關資料。由於通聯記錄中往往包含許多個人之隱私或是敏感性資料,部分不肖之徒(如身份竊盜者、非法的個人資料販賣商)會藉此故意取得個人通聯記錄,以窺探隱私,甚或以此進行犯罪行為。 有鑑於此,美國計畫透過本法案,嚴格禁止以詐騙方式取得電話記錄的情形,並賦予聯邦公平交易委員會( Federal Trade Commission )有權對違反本法規定者進行民事處罰。此外,本法案亦要求電信業者必須符合本法規定之資料安全保護的要求,若違反本法之規定而造成損害,單一案件得處以最高 30 萬元之罰鍰,若為多重案件,則得處以 10 萬元以上 300 萬元以下之罰鍰。
「巨量資料應用」當工業的製造生產過程經過一連串自動化、產量化以及全球化之變革歷程之後,智慧工廠的發展已經成為未來各國的重點目標。生產力4.0的設計中,巨量資料(Big Data)是重要的一環,以製造業為例,傳統上將製造生產取得的數據僅用於追蹤目的使用,鮮少做為改善整體操作流程的基礎,但在生產力4.0推進之後,則轉變為如何藉由巨量資料來提升生的效率、利用多元資源的集中化與分類處理,並經過分析取得改善行動方式,使生產最佳化,再結合訂單需求預期分析,依市場變化調整製造產量,達成本控制效果。 在我國104年9月公布之「2015行政院產力4.0科技發展方案」,亦提及智慧機械、智慧聯網、巨量資料、雲端運作等技術開發,使製造業、商業服務業、農業產品服務等,提升其附加價值。除此之外,經濟部積極規劃佈建巨量資料自主技術研發能力並且促成投資,落實應用產業智慧化與巨量資料產業化之目標。然而,巨量資料的應用因涉及大量的資料蒐集與利用,因此,未來應著重於如何將資料去辨識化,顧及隱私與個人資料之保護。目前,針對此部分,法務部將研擬個人資料保護法修正案,制訂巨量資料配套法規。
歐盟執委會公布《可信賴的AI政策及投資建議》歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。 該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。 在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。
加州通過學生線上個人資料保護法案(the Student Online Personal Information Protection Act)隨著越來越多學校使用線上教育技術產品發展教學課程,並透過第三方服務提供者之技術蒐集學生的學習進度等相關資訊,資訊洩漏、駭客入侵、敏感資訊誤用或濫用等問題也因應而生。於2014年9月30日,加州州長Jerry Brown宣布幾項對加州居民隱私保護具有重要突破的法案,其中最引人關注的便是編號SB1177號法案,又稱學生線上個人資料保護法案(the Student Online Personal Information Protection Act,簡稱SOPIPA)。 SOPIPA禁止K-12學生線上教育服務經營者(operator)為下列行為,包括:(一)禁止線上教育服務經營者利用因提供服務所得之個人資料為目標行為(targeted marketing)、(二)禁止線上教育服務經營者基於非教育目的,運用因提供服務所得之個人資料為學生資料之串檔、(三)販賣學生之資訊、以及(四)除另有規定,禁止披露涵蓋資訊(covered information)。所稱之涵蓋資訊係指由K-12教育機構之雇員或學生所提供或製作之個人化可識別資訊(personally identifiable information),或是線上教育服務經營者因提供服務所得之描述性或可識別之資訊(descriptive or identifiable information)。 此外,SOPIPA線上教育服務經營者應採取適當安全的維護措施,以確保持有之涵蓋資訊的安全。同時,線上教育服務經營者應在有關教育機構的要求下,刪除學生之涵蓋資訊。 SOPIPA預計於2016年1月1日生效,將適用於與K-12學校簽有契約之大型教育技術與雲端服務提供者,同時也將適用於未與K-12學校簽署契約,但為該學校所使用之小型K-12技術網站、服務或APP等等。