英國通訊管理局Ofcom在2008年12月公布寬頻速度業務法則(Broadband speeds code),用以確保消費者在寬頻速度的選購上可獲得更正確的資訊。這個業務法則係在要求ISP業者必須在銷售點提供明確的寬頻速度說明,於消費者購買時清楚解釋廣告上「保證頻寬」的意義;業者亦需解釋何種技術因素可能會降低速度(例如距離機房多遠影響速率傳輸、高峰流量時導致速率傳輸變慢等等),並提供客戶得以在家中改善情況的方案;若實際速度遠低於原來的說明或保證,則消費者得以選擇替代服務而無須負擔多餘的費用。雖然僅係自願性的業務法則,卻已經有超過全國95%的寬頻用戶所屬的ISP業者進行簽署。
此外,Ofcom同時公布寬頻服務消費者指南(Advice for consumers: Broadband speeds),協助消費者瞭解自己的寬頻服務權利,以及ISP是否遵行寬頻速度業務法則。
在2009年01月08日所公布的2008年英國寬頻速度報告(UK Broadband speeds 2008)指出消費者寬頻上網的平均速率為 3.6 Mbit/s(下行),低於業者在推銷廣告上的4.3Mbit/s。雖然3.6 Mbit/s就足以滿足大多數的網路應用,例如語音以及標準畫質的影音,但是有超過60%的英國消費者所購買的服務卻是「保證」8 M的頻寬;但有1/5 的用戶甚至實際得到的速率不到2 Mbit/s,是廣告上速率的45%。此外,研究顯示有9%的消費者不滿意寬頻服務,其中速度是最常被抱怨的項目;且因為距離的關係,城市居民的速率高於農村地區的15%。速率最高在倫敦,最低在英格蘭東北部、威爾斯以及蘇格蘭,使得農村用戶(14%)不滿意寬頻服務的比率高於城市用戶(8%)。
Ofcom在接下來的六個月內將持續監測這些已經簽署業務法則的ISP業者,以期督促業者能提供更符合消費者需求的服務,並預計納入2009年的政策規劃中。
(2008年英國寬頻速度報告為實地調查,於1500個家庭用戶安裝相關網路設備進行監測網路品質,透過調查期間為2008年10月23日至2008年11月22日止。)
人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。
英國綠色投資銀行即將上路英國財政大臣(Chancellor of the Exchequer)George Osborne日前於今(2011)年3月23日發表財政報告時宣佈,英國綠色投資銀行(UK Green Investment Bank, GIB)預計於2012年開始正式對外營業,且其開放對象為各相關產業。而未來英國GIB之營業項目,主要將針對具有高度風險,或是市場成本回收需要長時間等待之相關低碳企劃案進行經費補助,同時亦進一步制定二氧化碳排放價格。 早在2009年2月時,英國三大非營利組織團體E3G、Friends of the Earth、以及Climate Change Capital即共同發表一份聯合聲明提議成立綠色投資銀行,以鼓勵發展低碳經濟。然而,該份提議報告乃至2010年3月才正式獲得政府相關人士的重視,因其意識到綠色投資銀行之成立,也許能符合當前英國對於基礎設施與能源發展之需求。不過,對於綠色投資銀行是否成立之辯論,乃持續到今年3月才正式拍板定案,根據上述之政府財政報告,英國政府計劃於該投資銀行成立後,投注3億英鎊經費投資相關低碳企劃案之推行,並預計於2015年時,另外由私部門投注15億英磅補助相關企劃案,而其經費補助對象層面將以相關產品市場(market)為主。 英國能源與氣候變遷部(Department of Energy and Climate Change)國務卿(Secretary of State)Chris Huhne表示,綠色投資銀行成立後,在結合來自各方之穩定資金下,必能藉由投資綠色能源研發之方式,創造一個穩定且平衡的經濟成長。同時,相關政府單位亦期盼,未來綠色投資銀行除了能提供政府相關領域之經費分配,與研發技術之建議外,亦能以創造具商業價值之產品,達到分散私人投資風險之目的。
韓國金融服務委員會發佈防止金融機構再度發生個人資料外洩之要求韓國於今年1月份爆發史上規模最大的個資外洩案,國民銀行執行長李健浩、國民銀行信用卡公司執行長沈在吾、樂天信用卡公司執行長朴相勳與農協銀行信用卡公司執行長孫京植等人,亦因此請辭以示負責。 為防止將來金融機構再次發生個人資料外洩等事件,韓國金融服務委員會(Financial Services Commission, FSC)與相關部會於3月份發佈一連串要求,以下為其基本原則 1. 金融機構將被要求在處理客戶的個人資料時的每一個階段,包括蒐集、保存、使用和銷毀客戶資料時,都必須擔負起更多的責任。 2. 確保金融消費者可主張關於其個人資料之相關權利,包括金融消費者可決定金融機構於何時如何使用其個人資料。 3. 提升金融機構對於其客戶之個人資料保護責任,包括提升首席資訊安全官(Chief Information Security Officer, CISO)獨立性與責任、加重金融機構於資訊安全違規時相關罰則。 4. 政府將採取更多措施以確保金融機構的網路安全。 5. 金融機構必須建立緊急應變機制,以確保面對未來可能的資料外洩事故時,可迅速有效的應對。 韓國政府於於3月底已對不需修改法律之部分開始執行,而涉及《使用和保護信用資料法》和《電子金融交易法》部分亦待議會修法。
歐盟執委會公布《可信賴的AI政策及投資建議》歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。 該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。 在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。