澳洲隱私保護辦公室(Office of the Australian Information Commissioner, OAIC)於2019年9月發布「健康隱私指引」(Guide to health privacy)協助健康服務提供者了解及實踐相關規範所制定之隱私義務以確保個人資料安全。依據1988年澳洲隱私法(Privacy Act 1988)規定,健康服務指所有評估、維持、改善或管理個人健康狀況;或是診斷、治療或紀錄個人疾病或健康狀況之行為。而健康服務提供者除了醫院及醫療人員,更包含其他專業人員例如健身房及減肥診所、私立學校及托兒所、遠端醫療服務等所有涉及健康資料並提供健康服務之單位及人員。由於澳洲隱私法要求服務提供者必須積極建立、實施及維護隱私合法處理程序,為了協助所有健康服務提供者確實遵守法定義務,以減少健康資料之隱私風險問題,OAIC制定「健康隱私指引」提出八大步驟要求健康服務提供者確保遵守義務並保障所持有之個人資料:
2006年12月7日星期四在金融時報全版的廣告上,知名歌手U2、Kaiser Chiefs與大約四千個樂團,共同連署呼籲英國政府支持修正英國的著作權法,延長音樂著作權的保護期限。 英國著作權法的保護期限目前規定為50年,較美國著作權保護期限95年短,許多音樂著作人怕在有生之年會失去他們的音樂著作權。因此,英國的唱片工業((BPI, British Phonographic Industry)已經進行推動修改英國著作權法,希望延長英國著作權法保護期限,但有政府智慧財產權意見書卻建議政府維持原本英國著作權法之規定。 政府智慧財產權意見書的作者,安德魯高爾說,延長音樂著作權的保護期限超過50年,只會有利於已經很有錢的少數知名巨星。 錄音製品播放版權有限公司的發言人,肯尼斯哈瑞斯表示,那些音樂著作人採取在廣告版面上表達他們的訴求,是因為他們關切得著作權議題,竟然不被重視,所以想用這項空前的舉動,來支持修正英國著作權法,延長著作權保護期限。 延長著作權期限的議題不僅僅只是對巨星高要求的特殊待遇,而是必須讓那些難以維持生計的音樂著作人能被法律公平的對待。
資通安全法律案例宣導彙編 第2輯 歐盟國會通過頗受爭議之「反仿冒貿易協定(ACTA)在歷經多次談判會議,由包括美國、歐盟、日本、韓國等11個國家共同參與的「反仿冒貿易協定(Anti-Counterfeiting Trade Agreement, 簡稱ACTA)」,終於在雪梨展開的最後談判回合(11月30日-12月4日)中獲得共識,並於日前正式對外發布ACTA協定文本內容。 該協定旨在透過跨國境的國際合作,有效打擊日益猖獗的盜版及仿冒問題,全文共計6章45條文,包括民、刑事執行、邊境措施等,且因應數位化時代對智慧財產權保護所帶來的衝擊,針對數位化環境智慧財產權的執行措施,也有相對應的規定(section 5: Enforcement of Intellectual Property Rights in the Digital Environment)。而ACTA協定文本尚須提交各簽約國政府或國會表決同意的程序,方能生效。 以歐盟為例,儘管遭受歐盟境內廣大的批評聲浪,歐盟國會於11月24日以驚險的半數通過爭議許久的「反仿冒貿易協定(Anti-Counterfeiting Trade Agreement, ACTA) 」。歐盟國會宣稱,透過ACTA協定的簽署,以國際合作的方式,將有助於解決現今猖獗的侵權問題,以落實智慧財產權的保障。尤其是針對歐盟境內的地理標誌(如Champagner、Spreewald-Gurken),未來將可透過跨國合作,提升對歐洲企業的保護。雖然現階段仍有許多問題未能達成共識,但至少ACTA協定啟動各國合作打擊仿冒的開端。 不過,雖然歐盟執委會一直以來對外“消毒“, ACTA協定的簽署前提是在符合歐盟現行法規的基礎上,並且不會對歐盟人民的基本權、個人隱私權保障造成威脅。但包括電子通 訊傳播業者(e-communications providers)、無疆界醫師組織等團體,都發表聲明,要求歐盟國會確保ACTA協定落實於各會員國內,不會影響改變歐盟既有的法制規範。包括是否引進三振條款,透過網路封鎖手段遏止侵權行為、是否以刑事手段制裁侵權人等爭議,勢必在各歐盟會員國提交其國會表決時,將引起極大的討論。
美國國家標準暨技術研究院規劃建立「人工智慧風險管理框架」,並徵詢公眾對於該框架之意見美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)為管理人工智慧對於個人、組織以及社會所帶來之風險,於2021年7月29日提出將建立「人工智慧風險管理框架」(Artificial Intelligence Risk Management Framework, AI RMF)之規畫並徵詢公眾意見,截止日為9月15日,並預計於10月發布正式報告。 依照NIST說明,公眾所建議之人工智慧風險管理框架,可促進人工智慧之可信賴性,其中包含如何應對並解決人工智慧於設計、發展及使用過程中所遭遇之「精確度」(accuracy)、「可解釋性」(explainability)、「偏見」(bias)等議題。此外,上開管理框架預計為非強制性、供企業自願性使用於人工智慧設計、發展、使用、衡量及評估之人工智慧標準。 依現有公眾意見徵詢結果,其中DeepMind公司建議於人工智慧設計初期,必須預先構思整體系統之假設是否符合真正社會因果關係。舉例言之,當設計一套可預測民眾健保需求程度之系統時,如輸入參數僅考量民眾於醫療上的花費,將使僅有可負擔較高醫療費用之民眾被歸類為健保需求程度較高者,從而導致健保制度排擠經濟負擔程度較差之公民,故在設計系統時,應從預先設定之假設事實反面(counter-factual)思考並驗證是否會產生誤差或公平性之問題(例如預先思考並驗證「醫療費用支出較低之民眾是否即可被正確歸類為健保需求度低之民眾」)。惟進行上述驗證需要大量社會資料,因此DeepMind也建議NIST應建立相關機制,使這些社會資料可以被蒐集、使用。 此外,亦有民眾建議管理框架應有明確之衡量方法以及數值指標,以供工程界遵循。同時鑒於人工智慧發展極為快速,未來可能有不同於以往之人工智慧類型出現,故亦建議NIST應思考如何在「建構一套完整且詳細之人工智慧治理框架」與「保持人工智慧治理框架之彈性與靈活性」之間取得平衡。 最後,目前也有許多徵詢意見指出,許多人工智慧治理之目標會相互衝突。舉例言之,當NIST要求人工智慧系統應符合可解釋性,則人工智慧公司勢必需要經常抽取人工智慧系統中之「數據軌跡」(audit logs),惟數據軌跡可能被認為是使用者之個人資料,因此如何平衡或完善不同治理框架下之目標,為未來應持續關注之議題。