歐洲資料保護監管機關(European Data Protection Supervisor,以下簡稱EDPS)是一個獨立的監督機關,其任務主要在於監督歐盟個人資料的管理程序、提供影響隱私的政策及法制建議、與其他類似機關合作以確保資料的保護。
EDPS於今(2012)年6月8日,針對歐盟執委會於今(2012)年3月9日發布的「智慧電表系統發展準備建議」(Recommendation on preparations for the roll-out of smart metering systems,以下簡稱準備建議)提出相關意見。「智慧電表系統發展準備建議」乃係針對智慧電表部署之資料安全保護及經濟成本效益評估,提出發展準備建議,供會員國於進行相關建置及制定規範時之參考。然EDPS指出,執委會對於智慧電表中個人資料保護的重視雖值得肯定,但並未在準備建議中提供更具體、全面且實用的指導原則。智慧電表系統雖能帶來顯著的利益,但造成個人資料的大量蒐集,可能導致隱私的外洩,或相關數據遭使用於其他目的。
有鑑於相關風險,EDPS認為在準備建議中,應更加強其資料保護的安全措施,至少應包含對資料控制者在處理個人資料保護評估時有強制的要求;此外,是否有必要進行歐盟層級的立法行動亦應予以評估。EDPS提出的意見主要包括:(1)應提出更多有關選擇資料當事人及處理相關資料的法律依據,例如電表讀取的頻率、是否需取得資料當事人同意;(2)應強制「提升隱私保護技術」(privacy-enhancing technologies)的適用,以限縮資料的使用;(3)從資料保護的角度來釐清參與者的責任;(4)關於保存期間的相關原則,例如對於家戶詳細消費資訊的儲存期間、或在針對帳單處理的情形;(5)消費者能直接近取其能源使用數據,提供有效的方式使資料當事人知悉其資料的處理及揭露,提供有關遠端遙控開關之功能等訊息。
美國的情報分析員一等兵布蘭德利.曼寧(Brandly Manning),被控訴22項包括通敵罪、非法取得並散布外交及軍事機密的文件給「維基揭密」網站等妨害國家安全罪名,現被拘禁在馬里蘭州的米德堡。 曼寧一審由軍事法院審理,但軍事上訴審法院認為管轄權有爭議,為決定是否繼續適用軍事法院的審理程序,今年10月10日舉行預審聽證會,由五人一組的普通法院法官受理。同時,維基解密、憲法人權中心、美聯社等新聞媒體,均要求軍事法庭依憲法第一修正案,提供曼寧案的相關卷宗資料,但政府發言人查得費雪上尉(Captain Chad Fisher)表示,第一憲法修正案沒有絕對的效力,也未賦予法院公開卷宗的義務。若記者和大眾想獲得案件的文件資料,可透過「情報自由法」申請。但依「情報自由法」的申請程序非常冗長,而且美聯社和曼寧的辯護律師大衛.庫姆斯(david Commbs)的申請都已遭拒絕,律師大衛只能在私人網誌上向關心曼寧案的民眾公布案件進度和內情。 憲法人權中心的律師Shayana Kadidal 表示,不公開卷宗資料,就算參與了聽證會也無法理解案件的真實面貌,而無法做出準確的報導。但軍事法院對於憲法人權中心、新聞媒體及公眾要求公開法庭卷宗的訴求依然無動於衷。軍方和憲法人權中心將在之後會提交聲請,解釋為何他們認為軍事上訴審法院有權裁決卷宗是否公開。 曼寧下次庭期是明年2月4日,若通敵罪成立,曼寧將會被判終身監禁。
解析中國江蘇省「企業知識產權管理規範」之內容與對台商的影響 何謂「工業4.1J(Japan Industry 4.1J)」?自德國「工業4.0」,開啟所謂第4次工業革命以來,各國政府皆相繼投入資源進行相關計畫,如美國之「先進製造夥伴計畫(Advanced Manufacturing Partnership,AMP)」中國大陸之「中國製造2024」,以及我國之「生產力4.0」等等。 而日本不同於上述其他國家,日本版的工業4.0稱為「工業4.1J」,該計畫並非由國家來主導,而係由民間公司Virtual Engineering Community(VEC)及NTT Communications於2015年3月10日所啟動的一項實證實驗,旨在確認「工業4.1J」之各項技術要件,並且該項目成果非僅提供給VEC之會員,將對所有企業及公眾公開。而所謂的「4.1」表示安全級別比工業4.0更高一級,「 J」則表示源自於日本(Japan)。 日本之「工業4.1J」的運行架構說明如述:首先,將會利用控制系統蒐集相關數據;第二,在雲端平台上記錄及累積數據資料;第三進行即時分析;最後則是透過專家進行事件檢測、分析故障原因並恢復生產、提出安全改善建議等等。
美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。 依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。 依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。 此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。 最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。