在今(2021)年1月21日,歐洲數個科技公司、非營利組織與研究機構等民間單位共同發起「現今資料主權」聯盟(Data Sovereignty Now,DSN),宣布將向歐洲各級決策者施加壓力,以確保資料(data)之控制權掌握在生成資料的個人和組織手中。該聯盟認為歐盟執委會應採取決定性之措施,對於在歐洲所生成之資料,應以資料主權原則為基礎,以確保生成資料之個人和組織對其有控制權,以利數位經濟。 而在2020年12月初,澳洲政府首開全球先例提出一新法案,要求Google與Facebook等平台應向澳洲在地媒體支付新聞內容費用,要求雙方進行協商,商討在其平台上顯示之新聞內容所應支付之費用,倘無法達成協議,則由政府之仲裁員決定應支付之金額。此法案引發Google與Facebook高度反彈,不惜以不繼續在澳洲提供服務或停止連結(link)當地媒體之新聞報導作為反擊,要求澳洲政府撤回或修改該法案;然DSN聯盟則認為,Google與Facebook利用其市場主導地位來向澳洲政府施加壓力,正是濫用其資料壟斷權(data monopoly)與壟斷地位之典型例子,為防止科技巨擎將來繼續以此方式勒索政府之唯一方法,即是恢復使用者與平台間之「數位利益平衡」。而Google似有讓步之跡象,根據路透社報導,Google分別已與兩家當地媒體達成協議,將各支付每年3000萬澳幣之費用。該法案是否會如期通過,進而改變或影響此類大型平台與各國政府間資料主權之角力關係,值得持續關注。
美國衛生及公共服務部提出雲端服務適用健康保險可攜與責任法之相關指引美國醫療產業使用境內或境外雲端服務(Cloud Services)急速成長,導致「健康保險可攜與責任法」(Health Insurance Portability and Accountability Act,以下簡稱HIPAA)規範下之「適用機構」(Covered Entities)與其「商業夥伴」(Business Associate),對於雲端服務業者如何適用HIPAA感到疑惑。因此,衛生及公共服務部民權辦公室(Department of Health and Human Services, Office for Civil Rights)於10月7日公布相關業者如何適用HIPAA之指引,以釐清爭議。 於該指引中,該部指出,雲端服務業者若替適用機構或是商業夥伴創造、接收、維護、傳送被HIPAA所保護之「資療資訊」(Protected Health Information),則該雲端業者就被視為HIPAA下規範之商業夥伴,原因在於該服務具有儲存與維護醫療資訊功能,非屬該法排除適用之「網路服務業者」(Internet Service Providers)資料傳輸服務類型。 該指引有幾大重點:首先,雲端服務業者如將該醫療資訊提供加密儲存服務,仍應盡到HIPAA中規範商業夥伴之責任。原因在於加密資料不足以保護HIPAA有關資訊安全章節所要求醫療資訊之「機密性、完整性和可用性」之相關規範。再者,雲端業者皆須與委託方簽署商業夥伴協議(Business Associate Agreements)。此外,使用雲端服務儲存資療資訊時,委託方皆能使用行動設備進入雲端儲存之醫療資料,但應建立合乎HIPPA所要求相關之安全措施。最後,HIPAA並未禁止將醫療資訊儲存至伺服器為於美國境外之雲端業者,但使用前應自行評估該資訊遭駭客攻擊之可能性。
歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。
日本政府內閣於今年3月提出個人資料保護法修正草案為因應2016年正式上路實施之社會保障與納稅人識別號碼制度(社会保障・税番号制度)對於個人資料保護所產生之影響,日本政府內閣於2015年3月10日於國會提出個人情報保護法之修正案。 此次修正案主要分有六大重點,包含個資定義擴充與明確化、確保個資文件內容之正確性、強化個資保護規範內容、設立個人情報保護委員會、個資情報處理全球化,以及其他修正事項如未得當事人同意之第三人使用個資條件嚴格化等。 其中主要有兩項係與社會保障與納稅人識別號碼制度相關。首先是強化個資保護規範內容部分,由於社會保障與納稅人識別號碼制度將遇有個資資料庫使用情況,故新增個資資料庫之相關規範與罰則,行為人於未經授權或不當使用個資資料庫時,將可處1年以下拘役併科日幣50萬元以下之罰金,亦即當行為人違反個資法有關個資資料庫規定時,不但須支付罰金也須負刑事責任。 其次,擬設立直屬內閣總理大臣所轄之個人情報保護委員會,其委員組成人選須經參眾兩議院同意後,由內閣總理大臣任命之。委員會主要任務在於專責監督與監測政府各機關以及民間個資處理事業對於個資的傳遞、處理,並適時提出指導意見或建言。