英國的寬頻市場競爭在透過執行網路元件細分化(LLU)政策後,英國電信公司(BT)的對手競爭公司如Sky或TalkTalk,利用BT擁有的電話銅線,提供競爭通訊服務的線路數已達到700萬。這顯示英國電信管制機關Ofcom的細分化政策(LLU)已見成效。
這項政策係在2005年9月,由BT向Ofcom做出具有法律效力的承諾,Ofcom要求BT分拆成立一個新公司,稱為Openreach,負責向競爭對手提供線路出租的批發服務。Openreach是基於功能分離之實體,提供BT和其競爭對手完全一樣的交易條件,如契約條款、價格、系統和商業關係。
政策實施初期,英國電信市場僅有約12.3萬條細分化線路。多數人只能選擇BT作為寬頻及固網電話服務的供應商。
根據Ofcom的最新研究,目前英國有超過1900萬條寬頻線路。其中70%以上是由BT以外的其他公司提供服務,其中許多服務建立在BT的細分化網路元件的基礎上。
現有超過30家不同的公司,為家庭和小型企業提供非捆綁式(unbundled)服務。這有助於提升寬頻網路普及、降低固網電話的價格。與2005年9月相較,當時僅37%的家庭和小型企業有寬頻網路,現在這個數字是71%。
競爭對消費者而言,也帶來較低的費用。根據Ofcom的研究,在2005年最後一季時,消費者每月平均為寬頻網路服務支出約23.30英鎊。今天,他們為相同的服務每月付出大約13.31英鎊。
因此由零售價格、寬頻普及、競爭業者數量來看,英國的寬頻市場競爭已經達到一個重要的里程碑。
愛爾蘭最大的ISP業者Ericom因其使用者利用Ericom提供之網路服務傳輸音樂檔案,而遭EMI、Sony BMG、Universal及Warner提起訴訟,控告其涉嫌侵害著作權,要求Ericom應過濾其內容可能涉及侵害著作權之檔案。對此,Ericom向愛爾蘭高等法院表示,Ericom在法律上並無義務監督在其網路上所承載的檔案內容。 愛爾蘭數位權利壓力團體「愛爾蘭數位權利」(Digital Rights Ireland,簡稱DRI)聲稱,上述音樂出版業者對於Ericom的指控及要求於法無據,因為ISP業者不過是資料來源的媒介,並無法律義務對於網路上使用者的行為負責;歐盟也無法律特別要求業者應監督其所提供網路服務傳遞的資訊內容。DRI亦表示,若立法要求業者應監督傳輸之檔案,除將侵犯網路使用者的隱私權外,更意味著要求使用者付費讓業者監督其使用網路之行為,但目前過濾篩選技術仍不夠完善,反而會影響合法使用網路服務之用戶。 雖然如此,ISP業者仍面臨了越來越多的國際壓力,要求應即時阻攔使用者非法分享之檔案。如2008年夏季,法國將提出一套測試系統以協助ISP業者封鎖涉及侵權之資訊;比利時法院於2007年判決要求某個ISP業者應過濾其傳輸之資訊;日本ISP業者之代表組織亦強調,若發現使用者使用軟體違法分享音樂及遊戲檔案,將即時切斷網路服務,以防止使用者透過網路分享檔案侵害著作權。對於違法分享檔案之行為,若英國網路服務業者與音樂工業之意見仍未能達成一致,英國政府將立法要求,ISP業者應對違法分享檔案之使用者發出警告,而使用者仍堅持從事該違法行為,則其所使用之網路服務將會中斷。 目前,對於使用者利用ISP業者所提供之服務從事侵害著作權之行為,該業者是否應為使用者之違法行為負責已成為各國專家廣泛討論之議題,未來有關該議題之立法仍有待持續關注。
歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。
歐盟執委會公布《可信賴的AI政策及投資建議》歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。 該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。 在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。