美國聯邦最高法院在2017年6月拒絕對聯邦法令-廠房之啟動,停工,與故障之許可證取得(Startup, Shutdown, Malfunction, SSM)底下之州際執行計畫(State Implementation Plans,SIPs)免責條款的上訴聽案,即各州對於SSM的污染物超標限制,無權力訂定免責條款。1聯邦法令SSM規定公司廠房等所有者或營運者需對於初始營運、日後關閉、中間故障等作業程序與維護措施做成報告以獲得並定期更新營業許可證,報告中需對於預測與計畫中的污染物排放與災難可能做說明,並以遵守聯邦法規對污染物排放相關規定為前提。2 聯邦政府當時以美國聯邦法規(Code of Federal Regulation)以及空氣清潔法案(The Clean Air Act)裡的國家周遭空氣品質標準(National Ambient Air Quality Standards) 為準則,授予各州訂定SIP的權限,因此才有各州多以促進經濟、展業發展為由而自行訂定免責條款的產生。
在原本的SSM機制下,計畫中的污染物超標可能適用各州的免責條款,而非計畫或預測中的污染物超標則會依是否有正當辯護,而可能被下禁治令。隨後,因美國前總統歐巴馬十分重視環境保護,而與美國環境保護總局(Environmental Protection Agency,EPA)頒佈新政策,下令各州把其SIP裡對於污染物超標的免責條款全部刪去。
這樣的大動作使各州政府與企業主十分不開心,便開啟了一連串與EPA的訴訟。2008年D.C.巡迴法院在Sierra Club v. EPA 3判定SSM期間內的違反污染污物排放限額不得有任何免責例外。2014年D.C.巡迴法院於Natural Resources Defense Council v. EPA 4更判定EPA沒有權限給予在SSM期間內違法業者創造任何答辯。雖然美國聯邦最高法院拒絕對此爭議聽案,但目前EPA仍有與州政府及企業主訴訟案在進行。
CRADAs係研發合作契約(Cooperative Research and Development Agreements)之縮寫,為美國國家衛生研究院(National Institute of Health,NIH)與業界和學術界進行科學技術研究發展產學研合作時所簽訂之契約。基於美國國家衛生研究院投入相關領域技術發展之機關設置目的,其所屬之科學家們可以利用本身的科研資源,與業界或學術界共同合作促進保健藥品和原型(prototype)開發與產品進一步的商業化量產。此外,業界也可利用本身私部門的研發力量,介接在國家層級最先進的技術研究合作。 研發合作契約的目的是專為使政府設施、政府補助研發成果之智慧財產權,透過與私部門之產學研合作提供合作互動,以促進科學技術知識之發展轉化為具有市場價值之商業化用途。配合契約之簽署,針對研發合作之權利義務,美國國家衛生研究院另設置有科技發展合作中心(Technology Development Coordinator,TDC),作為研發合作早期階段進行磋商與諮詢之專業機構,以幫助瞭解和研擬適當內容的研發合作契約,並順利依法獲得相關主管機關之核准。
英國OFCOM計畫推出適用於不同內容之分級識別標誌英國財政大臣Gordon Brown在倫敦的一場演講中指出,OFCOM現正研擬制定一套適用於各種不同媒介之內容的分級識別標誌。未來不論電視節目、廣播節目、電影、電腦遊戲或者網站內容都可適用該分級識別系統,以幫助父母為家中的孩童過濾不適當的內容,保護孩童在數位化的時代仍可以遠離不適合的媒體內容。 在該場演講中,Gordon Brown 表示,身處在數位時代,父母越來越難掌握孩童所接觸的內容是否適當,但是在無法扭轉科技的進步前提下,應當善加利用新科技並使父母得以透過各種新科技繼續保有為孩童選擇適當的內容之控制權。 OFCOM的發言人僅透露該套分級識別系統不僅適用於所有種類的媒體內容,而且將以文字方式描述各種內容,例如特定內容之裸露程度為何,以作為視聽大眾決定是否接收該內容前的參考。另外,不同於現行的電影分級制度乃是以年齡作為不同等級內容的分級標準,未來OFCOM所推出的分級識別系統將無關乎年齡。不過OFCOM亦表示該分級識別系統的詳細內容目前尚未決定,仍在討論階段。 除了制定一套適用於所有內容的分級識別系統之外,OFCOM未來亦將透過電視廣告以及要求ISP業者配合向消費者宣導各種過濾軟體,以便消費者得以過濾網路上之色情猥褻或暴力之內容。
英國資訊委員辦公室提出人工智慧(AI)稽核框架人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。
歐盟於YouTube架設影音分享頻道EU Tube繼YouTube對美國總統大選的影響力逐漸受到各界矚目後,大西洋彼岸的歐盟執行委員會(European Commission),也漸體認到影音分享網站在商業應用外,對言論傳播乃至於政治活動之潛在影響。 有鑑於此,歐盟執行委員會甫於上月二十九日,於YouTube網站上增置一個名為 “EU Tube” 的視聽頻道,以做為歐盟(European Union)官方和歐洲公民間的溝通渠道。 關於此種利用線上影音分享網站作為政府資訊傳播和政策公開宣傳的創舉,有幾點值得國內注意。 首先,此一歐盟執行委員會與YouTube簽訂的頻道協議,乃是非專屬的協定。換言之,歐盟執行委員會仍可同時與其他網站或媒體簽訂類似之服務協議。其次,EU Tube之內容亦不僅限於硬性的政策或行動討論,而包含了從氣候變遷、能源議題到移民等各種公民相關事項,甚至有內容大膽的 ”Film Lovers Will Love This!” 的前衛影片。更有甚之,使用者對於不同影音檔點擊觀看次數(有數百萬人次與僅一千人次的差異)的資訊,也可作為日後進一步分析利用的原始資料。不過,雖然歐盟極力推動其內部之語言多樣性,目前既有的影片仍以英文為主。 歐盟發言人強調,納入YouTube等網站為對外溝通管道的作法,是為了盡可能擴大與歐盟公民的聯繫,但主要仍以易受YouTube吸引的年輕人為主。由此可見,網路網路對不同年齡層、世代的影響仍有差異,而公領域與影音分享網站日漸深化的關係,也考驗傳統媒體和政治互動的準則。