原預計於2017年3月2日生效實行的美國聯邦通訊委員會(Federal Communication Commission,FCC)的寬頻客戶隱私規定(Broadband Consumer Privacy Rules),委員會於2017年3月1日宣布暫停該規範效力,並與聯邦貿易委員會(Federal Trade Commission,FTC)發表共同聲明。
為保障資料安全(data security),聯邦通訊委員會於2016年10月27日,以寬頻網路服務提供者(broadband Internet Service Providers,ISPs)及其他電信營運商為規範對象,要求須給予客戶有更多選擇去決定自身資料如何被分享和使用,除將ISP所蒐集得使用及分享的資料分為三類,建立客戶同意要件,尚設立新的提醒要件及保密性違反之通知等。該新的隱私規範試圖與聯邦貿易委員會的規範做區隔,除管制對象不同,管制架構上,聯邦貿易委員會要求業者在蒐集及利用個人資訊時,須符合公平資訊實施原則(Fair Information Practice Principles,FIPPs)之準則(guidelines):通知(notice)、選擇(choice)、讀取(access)、安全(security)。
通過之際產生的爭議,包含聯邦通訊委員會有無管制權限,及實行後可能與聯邦貿易委員會管制架構並行而造成疊床架屋、混淆大眾等的問題;此外,聯邦通訊委員會收到眾多請願,要求重新考慮該規範之實行。請願理由在於該規範之實行將會造成寬頻網路服務提供者及其他電信營運商為了要遵循規範將承受巨大的成本與負擔,並且這些成本與負擔與公眾利益相違背,將會造成不可回復的損害。
在接受請願討論後,聯邦貿易委員會做出暫停實施的決定,認為有關保護資料安全的規範要件需要重新思考,其理由在於:(1)消費者若受到兩種不同的隱私管制方式,會破壞消費者對於線上隱私安全一致性的期待;(2)不應使寬頻網路服務提供者及其他電信營運商遭受重大且不必要的遵循成本。
聯邦通訊委員會也與聯邦貿易委員會共同發表聲明,其聲明提及:聯邦通訊委員會與聯邦貿易委員會皆有責保護美國消費者的線上隱私,然而最好的管制方法,應該是透過一個全面性且一致性的架構。資訊隱私之保護不應當有因管制對象不同而有差別性,況且其中差異僅有專業人士才能辨別出,就消費者保護來說,並行兩道不同管制只會造成混淆,毫無益處。這也是為何當聯邦通訊委員會片面剝奪聯邦貿易委員會的管制權限而引發批評聲浪。對於寬頻提供者應保護隱私與資料安全之要求,應回歸至聯邦貿易委員會,由於國家對網際網路空間的管制,上網行為應該要適用一樣的規則,並且受到同樣的專責機關管制。除此之外,聯邦通訊委員會與聯邦貿易委員將共同合作致力於協調對寬頻提供者的隱私規範,該規範將會同所有與數位經濟相關的公司遵循的標準。線上世界技術中立(technology-neutral)的隱私框架之一致性,方能對消費者帶來最佳利益。
本次聯邦通訊委員會迅速暫停實施的隱私規範,顯現出美國對於保障隱私管制的重視性極高,美國針對網路生態中的不同公司,寬頻網路服務提供者及其他電信營運商,例如Comcast、Verizon、AT&T等;網站或其他邊緣服務商(edge service),例如Google、Facebook、Amazon等,將會有何種一致性的資料安全規範,值得持續關注。
日本文化廳文化審議會著作權分科會於2018年2月13日,出具分科會報告書,內容說明著作權法修正之方向。書中提及「重新檢視並修正違法下載之態樣」一點,擬將違法下載之態樣及動作,由「影音」擴及到所有靜態圖文(如漫畫、照片、小說、雜誌及論文等),「下載」擴及「截圖」(スクショ,screenshot)。 此次修法,起因於近來日本大量出現線上盜版漫畫網站,推估其半年所造成之損失可達4000億日幣以上。該報告書公布後,隨即湧現大量反對之聲浪。反對者認為修法之弊大於利,日本漫畫學會對此發表反對聲明,會長竹宮惠子對於修法表示憂心,認為修法將導致以下問題: 阻礙創作研究(如二次創作); 創作萎縮(日常下載及剪輯將被禁止); 難以判斷網路靜態圖文是否為違法上傳; 即使「下載」違法化,仍然無法根除線上盜版漫畫流通平台。 報告書中亦提及,在個人部落格及需加入會員之社群網(SNS)上傳或下載未經著作權人同意而公開之著作,亦屬違法。倘若為全書掃描上傳等惡性重大之行為,應科以刑責。 針對上述疑慮,報告書中的確未排除修法後將造成著作物在網路上利用萎縮之可能,然仍強調應透過官民間之合作努力,傳達正確之修法内容。並由出版社端導入「ABJ Mark」,推動正版漫畫流通平台,透過科技推動盜版網頁近用警示制度,使大眾知悉其行為即將侵害著作權等。由於法令修正之内容,影響人民日常生活甚鉅,後續修法將在各團體間如何折衝,上述措施能否普及或啟發人民觀念,值得後續持續關注。
英國綠色投資銀行即將上路英國財政大臣(Chancellor of the Exchequer)George Osborne日前於今(2011)年3月23日發表財政報告時宣佈,英國綠色投資銀行(UK Green Investment Bank, GIB)預計於2012年開始正式對外營業,且其開放對象為各相關產業。而未來英國GIB之營業項目,主要將針對具有高度風險,或是市場成本回收需要長時間等待之相關低碳企劃案進行經費補助,同時亦進一步制定二氧化碳排放價格。 早在2009年2月時,英國三大非營利組織團體E3G、Friends of the Earth、以及Climate Change Capital即共同發表一份聯合聲明提議成立綠色投資銀行,以鼓勵發展低碳經濟。然而,該份提議報告乃至2010年3月才正式獲得政府相關人士的重視,因其意識到綠色投資銀行之成立,也許能符合當前英國對於基礎設施與能源發展之需求。不過,對於綠色投資銀行是否成立之辯論,乃持續到今年3月才正式拍板定案,根據上述之政府財政報告,英國政府計劃於該投資銀行成立後,投注3億英鎊經費投資相關低碳企劃案之推行,並預計於2015年時,另外由私部門投注15億英磅補助相關企劃案,而其經費補助對象層面將以相關產品市場(market)為主。 英國能源與氣候變遷部(Department of Energy and Climate Change)國務卿(Secretary of State)Chris Huhne表示,綠色投資銀行成立後,在結合來自各方之穩定資金下,必能藉由投資綠色能源研發之方式,創造一個穩定且平衡的經濟成長。同時,相關政府單位亦期盼,未來綠色投資銀行除了能提供政府相關領域之經費分配,與研發技術之建議外,亦能以創造具商業價值之產品,達到分散私人投資風險之目的。
新加坡發布《應用程式分發服務安全準則》以強化應用程式用戶保護為降低應用程式(App)用戶接觸有害內容的風險,新加坡資通訊媒體發展管理局(Infocomm Media Development Authority,IMDA)發布《應用程式分發服務安全準則》(Code of Practice for Online Safety for App Distribution Services),要求應用程式分發服務(App Distribution Services,ADSs)採取必要防護措施,並導入年齡驗證機制,以進一步強化兒童保護。該準則將於 2025 年 3 月 31 日 生效。 本次IMDA依據《廣播法》(Broadcasting Act)第45L條所發布之《應用程式分發服務安全準則》,係為進一步強化對App用戶的保護。ADSs作為數位裝置存取應用程式的主要入口,是許多網路內容(例如線上遊戲)的上架平台,當用戶透過 ADSs下載App的比例提高,其接觸不當內容的風險亦增加。因此,新加坡要求指定業者建立安全措施,以降低用戶接觸不當內容的風險。被指定業者包括:Apple App Store、Google Play Store、Huawei AppGallery、Microsoft Store及Samsung Galaxy Store等。該準則亦要求ADSs業者建立年齡驗證機制,訂定年齡分級標準並限制兒童存取及下載不適齡的App,同時強化家長控制功能。這一措施讓新加坡成為全球首批強制推動年齡驗證的國家或地區之一,其他國家包括澳洲、歐盟、英國及美國。IMDA 亦將持續與ADSs 業者溝通,確保其有效落實年齡驗證機制。 早在2023年1月,新加坡已於《廣播法》中將線上通訊服務納入規範,政府可要求業者封鎖惡性內容(egregious content),確保網路環境安全並保護兒童免受不當內容影響。此外,依據《網路安全準則》(Code of Practice for Online Safety),政府可要求指定社群媒體服務業者(如Facebook、Instagram、TikTok、Twitter與YouTube等)降低用戶接觸有害內容的風險。 為因應日益增加的有害線上內容,新加坡未來將持續與相關政府機構、產業及社群合作,推動適當的監管措施與公共教育,以確保新加坡用戶免受線上風險侵害。
歐盟提出人工智慧法律框架草案歐盟執委會於2020年2月公布《人工智慧白皮書》(AI White Paper)後,持續蒐集各方意見並提出新的人工智慧規範與行動。2021年4月針對人工智慧法律框架提出規範草案(Proposal for a Regulation on a European approach for Artificial Intelligence),透過規範確保人民與企業運用人工智慧時之安全及基本權利,藉以強化歐盟對人工智慧之應用、投資與創新。 新的人工智慧法律框架未來預計將統一適用於歐盟各成員國,而基於風險規範方法將人工智慧系統主要分為「不可接受之風險」、「高風險」、「有限風險」及「最小風險」四個等級。「不可接受之風險」因為對人類安全、生活及基本權利構成明顯威脅,故將被禁止使用,例如:政府進行大規模的公民評分系統;「高風險」則是透過正面例舉方式提出,包括:可能使公民生命或健康處於危險之中的關鍵基礎設施、教育或職業培訓、產品安全、勞工與就業、基本之私人或公共服務、可能會干擾基本權之司法應用、移民與庇護等面向,而高風險之人工智慧在進入市場之前須要先行遵守嚴格之義務,並進行適當風險評估及緩解措施等。「有限風險」則是指部分人工智慧應有透明度之義務,例如當用戶在與該人工智慧系統交流時,需要告知並使用戶意識到其正與人工智慧系統交流。最後則是「最小風險」,大部分人工智慧應屬此類型,因對公民造成很小或零風險,各草案並未規範此類人工智慧。 未來在人工智慧之治理方面,歐盟執委會建議各國現有管理市場之主管機關督導新規範之執行,且將成立歐洲人工智慧委員會(European Artificial Intelligence Board),推動人工智慧相關規範、標準及準則之發展,也將提出法規沙盒以促進可信賴及負責任之人工智慧。