去(2005)年11月,全球幹細胞研究先驅-韓國首爾大學
隨著複製研究技術的與日俱進,生物倫理(Bioethics)相關議題已無國界之分,為此,聯合國科教文組織(UNESCO)於去(2005)年11月底之會員國大會,通過「世界生物倫理及人權宣言」(The Universal Declaration on Bioethics and Human Rights),建立起國際共通的生物倫理標準,希望能給各國在制定生物倫理相關法制政策有所依據,並作為相關研究行為之指導原則。
隨著韓
由於近日頻傳醫院遭受勒索軟體攻擊(ransomware attacks),美國加州檢察總長於2021年8月24日發布官方公告(bulletin):在加州州法「醫療資訊保密法」(Confidentiality of Medical Information Act, CMIA)與聯邦法「健康保險可攜與責任法」(Health Insurance Portability and Accountability Act of 1996, HIPAA)規範下,蒐集、處理和利用醫療健康資料的醫療照護機構,有採取適當措施與事故通報的義務,以維護醫療健康資料保密性。 針對「採取適當措施」的內容,美國加州檢察總長於本次官方公告中,提出明確指引(guidance):醫療照護機構須至少採取下列5項防範措施(preventive measures),以避免勒索軟體威脅: 確保所有存取醫療健康資料的作業系統與軟體,均升級至最新版本; 安裝防毒軟體,並維護其運作; 定期為員工舉辦教育訓練,包含教導員工不要點擊可疑網址和防範釣魚電子郵件(phishing email); 限制員工下載、安裝和運作未經批准的軟體; 維護和定期測試資料備份與救援計畫,以便於事故發生時,控制對資料和系統的影響範圍及程度。 此外,針對「資料外洩事故通報義務」(breach notification obligations),美國加州檢察總長指出:依據「加州民法」(California Civil Code)第1798.82條,擁有或經授權使用含有個人資料的「電腦化資料」(computerized data)的醫療照護機構,於發生,或可合理確信發生,影響超過500位加州居民的資料外洩事故時,即負有將該事故通報檢察總長辦公室的義務。
日本認可智遊網就其線上訂房服務經營策略可能違反公平競爭秩序所提出之約定改善計畫日本公平交易委員會(公正取引委員会,下稱日本公平會)於2022年6月2日宣布,已認可智遊網集團(Expedia,日文原文為エクスペディア)針對其網站線上旅館訂房服務經營方式可能違反公平競爭秩序的情形,所提出的約定改善計畫(確約計画)。依日本獨占禁止法第48條之2、第48條之3規定,受日本公平會通知有違反獨占禁止法疑慮的業者,於規定期限內提出約定改善計畫後,日本公平會審酌認為其計畫之落實能有效消除違法疑慮時,即得作成認可該計畫之行政處分。基此,智遊網集團後續得藉由落實該約定改善計畫,來排除上述經營方式牴觸獨占禁止法第19條禁止業者採取不公正交易方法規範的疑慮。 按獨占禁止法,其立法目的為確保與促進市場的公平與自由競爭,主要規範關於獨占、聯合與結合等行為;至於針對不公平競爭行為,則另訂「不正競爭防止法」加以規範,而與我國公平交易法合併規範獨占等與不公平競爭行為之立法架構有所不同。 根據日本公平會依獨占禁止法規定所進行調查,智遊網集團經營的線上旅館訂房預約網站Expedia,與位在日本國內的旅館設施經營經營業者所締結的契約中約定,日本旅館經營業者在Expedia網站上刊載提供的住宿費用與房間數等條件,需優於或至少等同於與該特定旅館業者在其他訂房服務通路所提供的條件。並且,智遊網集團進一步依據該約款,主動要求旅館經營業者遵守該條件,或由日本之智遊網分公司協助向旅館業者請求。日本旅館業者受此條款拘束,亦影響了與Expedia網站存在競爭關係的訂房網站經營業者之事業活動。例如,其他訂房網站經營業者自行負擔成本提供特定旅館業者之訂房優惠時,因其價格優於該旅館業者刊載於Expedia網站之條件,而被迫中止該訂房網站的優惠活動。 日本公平會於2022年2月25日將上述審查結果依獨占禁止法法第48條之2通知智遊網集團,要求其針對上述經營行為提出約定改善計畫,以恢復公平競爭秩序。而智遊網依此提出的約定改善計畫,主要內容包含: (1)停止、以及不再締結上述約款與要求業者履行約款等行為; (2)將上述決定與作為通知旅館經營業者、以及智遊網集團自家的員工; (3)定期向日本公平會報告上述改善措施的落實狀況等。
德國資料保護會議通過「哈姆巴爾宣言」,針對人工智慧之運用提出七大個資保護要求德國聯邦及各邦獨立資料保護監督機關(unabhängige Datenschutzaufsichtsbehörden)共同於2019年4月3日,召開第97屆資料保護會議通過哈姆巴爾宣言(Hambacher Erklärung,以下簡稱「Hambacher宣言」)。該宣言指出人工智慧雖然為人類帶來福祉,但同時對法律秩序內自由及民主體制造成巨大的威脅,特別是人工智慧系統可以透過自主學習不斷蒐集、處理與利用大量個人資料,並且透過自動化的演算系統,干預個人的權利與自由。 諸如人工智慧系統被運用於判讀應徵者履歷,其篩選結果給予女性較不利的評價時,則暴露出人工智慧處理大量資料時所產生的性別歧視,且該歧視結果無法藉由修正資料予以去除,否則將無法呈現原始資料之真實性。由於保護人民基本權利屬於國家之重要任務,國家有義務使人工智慧的發展與應用,符合民主法治國之制度框架。Hambacher宣言認為透過人工智慧系統運用個人資料時,應符合歐盟一般資料保護規則(The General Data Protection Regulation,以下簡稱GDPR)第5條個人資料蒐集、處理與利用之原則,並基於該原則針對人工智慧提出以下七點個資保護之要求: (1)人工智慧不應使個人成為客體:依據德國基本法第1條第1項人性尊嚴之保障,資料主體得不受自動化利用後所做成,具有法律效果或類似重大不利影響之決策拘束。 (2)人工智慧應符合目的限制原則:透過人工智慧系統蒐集、處理與利用個人資料時,即使後續擴張利用亦應與原始目的具有一致性。 (3)人工智慧運用處理須透明、易於理解及具有可解釋性:人工智慧在蒐集、處理與利用個人資料時,其過程應保持透明且決策結果易於理解及可解釋,以利於追溯及識別決策流程與結果。 (4)人工智慧應避免產生歧視結果:人工智慧應避免蒐集資料不足或錯誤資料等原因,而產生具有歧視性之決策結果,控管者或處理者使用人工智慧前,應評估對人的權利或自由之風險並控管之。 (5)應遵循資料最少蒐集原則:人工智慧系統通常會蒐集大量資料,蒐集或處理個人資料應於必要範圍內為之,且不得逾越特定目的之必要範圍,並應檢查個人資料是否完全匿名化。 (6)人工智慧須設置問責機關進行監督:依據GDPR第12條、第32條及第35條規定,人工智慧系統內的控管者或處理者應識別風險、溝通責任及採取必要防範措施,以確保蒐集、處理與利用個人資料之安全性。 (7)人工智慧應採取適當技術與組織上的措施管理之:為了符合GDPR第24條及第25條規定,聯邦資料保護監督機關應確認,控管者或處理者採用適當的現有技術及組織措施予以保障個人資料。 綜上所述,Hambacher宣言內容旨在要求,人工智慧在蒐集、處理及利用個人資料時,除遵守歐盟一般資料保護規則之規範外,亦應遵守上述提出之七點原則,以避免其運用結果干預資料主體之基本權利。
世界經濟論壇發布《贏得數位信任:可信賴的技術決策》世界經濟論壇(World Economic Forum, WEF)於2022年11月15日發布《贏得數位信任:可信賴的技術決策》(Earning Digital Trust: Decision-Making for Trustworthy Technologies),期望透過建立數位信任框架(digital trust framework)以解決技術開發及使用之間對數位信任之挑戰。 由於人工智慧及物聯網之發展,無論個人資料使用安全性還是演算法預測,都可能削弱人民對科技發展之信賴。本報告提出數位信任路線圖(Digital trust roadmap),說明建立數位信任框架所需的步驟,以鼓勵組織超越合規性,指導領導者尋求符合個人與社會期望之全面措施行動,以實現數位信任。路線圖共分為四步驟: 1.承諾及領導(commit and lead):數位信任需要最高領導階層之承諾才能成功,故需將數位信任與組織戰略或核心價值結合,並從關鍵業務領域中(例如產品開發、行銷、風險管理及隱私與網路安全)即納入數位信任概念。 2.規劃及設計(plan and design):透過數位信任差距評估(digital trust gap assessment)以瞭解組織目前之狀態或差距,評估報告應包括目前狀態說明;期望達成目標建議;治理、風險管理與合規性(governance, risk management and compliance, GRC)調查結果;將帶來之益處及可減輕之風險;計畫時程表;團隊人員及可用工具;對組織之影響等。 3.建立及整合(build and integrate):實現數位信任需關注人員、流程及技術等三大面向。首先需確保人員能力、達成該能力所需之資源,以及人員溝通與管理;第二,定義組織數位信任流程,包括制定計劃所需時程、預算及優先實施領域,調整目前現有管理流程,並識別現有資料資產;最後,針對技術使用,可考慮使用AI監控、雲端管理系統以及區塊鏈等,以監測資料之使用正確性及近用權限管理。 4.監控及滾動調整(monitor and sustain):建立數位信任框架後,需持續建構相關績效及風險評估程序,以確保框架之穩定,並根據不斷變化的數位信任期望持續改善,以及定期向董事會報告。