本文為「經濟部產業技術司科技專案成果」
歐盟法院在2017年3月9日針對其於同日所公布的判決發布新聞稿,指出該院認定公司資料登記中的個人資料於此案中並無被遺忘權之適用。 該案件起源於2007年義大利的Manni先生對雷契商業登記處(Lecce Chamber of Commerce)所提之爭訟。在由雷契法院(Tribunal di Lecce)受理的案件中,Manni先生主張其所承接觀光性建案乃因商業登記處之資料清楚顯示其於1992年間擔任負責人的公司倒閉之影響而無法成交。 在一審判決中,雷契地方法院命雷契商業登記處將Manni先生與其之前所任職公司後來進入清算程序之聯結匿名化,並應對其為損害賠償。嗣後,雷契商業登記處向義大利最高法院(Corte suprema di cassazione)提起上訴,該院則決定聲請歐盟法院的先訴裁定(preliminary uuling)程序。 歐盟法院的判決指出:公司登記資料的公開性質,乃基於確保公司間以及與第三人間之法律安定性,特別是對於有意願入股上市公司或股份有限公司的第三人之利益。考量本案所涉法律權利之範圍,以及這些權利限制資料存取的時間在會員國各有所異,歐盟法院認為本案所涉之事實並不足以正當化系爭資料近用之限制,但其亦不排除未來有不同的可能,但須個案判斷。
加拿大隱私專員與首席選舉官針對聯邦政黨發布個人資料保護指引加拿大隱私專員辦公室(Office of the Privacy Commissioner of Canada, OPC)與加拿大首席選舉官(Chief Electoral Officer of Canada, CEO)於2019年4月1日聯合針對聯邦政黨發布個人資料保護管理之指引(Guidance for federal political parties on protecting personal information)。目前加拿大選舉法(Canada Elections Act, CEA)僅概括規範政黨須制定隱私政策,以保護選民之個人資料,惟其卻未有具體法規制度落實。對此加拿大隱私專員辦公室認為政黨必須提出具體隱私政策來履行其法律義務。 現行加拿大選舉法規範聯邦政黨必須於其網站上公布隱私政策,並提交給加拿大選務局(Elections Canada)。若其隱私政策變更,必須通知首席選舉官,且即時更新網站上隱私政策版本。加拿大聯邦各政黨須於2019年7月1日前完成相關規範,為具體實踐政黨隱私保護制度,加拿大隱私專員辦公室提出幾點隱私政策之必要條件: 一、 聲明蒐集個人資料之類型與如何蒐集個人資料? 二、 如何保護其蒐集之個人資料? 三、 說明如何利用個人資料?是否會將個人資料給予第三方? 四、 針對個人資料蒐集、利用之人員如何培訓?內部控管機制為何? 五、 蒐集分析之資料為何?是否有利用cookie或相關應用程式蒐集? 六、 設置處理個資隱私疑慮專責人員 除此之外,該辦公室更建議參採國際隱私保護作為,著重公平資訊原則,政黨於個資隱私保護上須有其問責制、目的明確性、透明化、限制性蒐集,且未經當事人明確同意不得蒐集政治觀點、宗教或種族等敏感性個資,並應建置保障性措施與合規性管理機制。
美國加州「Asilomar人工智慧原則決議」美國加州議會於2018年9月7日通過Asilomar人工智慧原則決議(23 Asilomar AI Principles, ACR-215),此決議表達加州對於「23條Asilomar人工智慧原則」之支持,以作為產業或學界發展人工智慧、政府制定人工智慧政策之指標,並提供企業開發人工智慧系統時可遵循之原則。依此法案所建立之重要指標如下: (1)於研究原則上,人工智慧之研究應以建立對於人類有利之人工智慧為目標。 (2)於研究資助上,人工智慧之研究資助應著重幾個方向,如:使人工智慧更加健全且可抵抗外界駭客干擾、使人工智慧促進人類福祉同時保留人類價值以及勞動意義、使法律制度可以順應人工智慧之發展。 (3)於科學政策之連結上,人工智慧研究者與政策擬定者間應有具有建設性且健全之資訊交流。 (4)於研究文化上,人工智慧研究者應保持合作、互信、透明之研究文化。 (5)於安全性上,人工智慧研究團隊應避免為了研究競爭而忽略人工智慧應具備之安全性。 (6)人工智慧系統應該於服務期間內皆具備安全性及可檢視性。 (7)人工智慧系統之編寫,應可使外界於其造成社會損失時檢視其出錯原因。 (8)人工智慧系統如應用於司法判斷上,應提供可供專門人員檢視之合理推論過程。 (9)人工智慧所產生之責任,應由設計者以及建造者負擔。 (10)高等人工智慧內在價值觀之設計上,應符合人類社會之價值觀。 (11)高等人工智慧之設計應可與人類之尊嚴、權利、自由以及文化差異相互調和。 (12)對於人工智慧所使用之資料,其人類所有權人享有擷取、更改以及操作之權利。 (13)人工智慧之應用不該限制人類「客觀事實上」或「主觀知覺上」之自由。 (14)人工智慧之技術應盡力滿足越多人之利益。 (15)人工智慧之經濟利益,應為整體人類所合理共享。 (16)人類對於人工智慧之內在目標應享有最終設定權限。 (17)高等人工智慧所帶來或賦予之權力,對於人類社會之基本價值觀應絕對尊重。 (18)人工智慧所產生之自動化武器之軍備競賽應被禁止。 (19)政策上對於人工智慧外來之發展程度,不應預設立場。 (20)高等人工智慧系統之研發,由於對於人類歷史社會將造成重大影響,應予以絕對慎重考量。 (21)人工智慧之運用上,應衡量其潛在風險以及可以對於社會所帶來之利益。 (22)人工智慧可不斷自我循環改善,而可快速增進運作品質,其安全標準應予以嚴格設定。 (23)對於超人工智慧或強人工智慧,應僅為全體人類福祉而發展、設計,不應僅為符合特定國家、組織而設計。