2011年5月英國電信主管機關Ofcom(Office of communications)對英國境內寬頻網路速率現況進行調查,寬頻網路平均下載速度從去年11月的6.2Mbits/s增為6.8Mbits/s,且有近半(47%)的使用者可享受到超過10Mbit/s的速度。
但廣告速度與真實速度間的差距擴大,今年5月業者平均廣告速度為15Mbit/s,,較真實速度6.8Mbits/s差距為8.2Mbit/s,而2010年11月平均廣告速度13.8Mbit/s真實速度6.2Mbit/s,差距為7.6Mbit/s。上述的差距主要發生於ADSL網路,英國有近75%的使用者仍用ADSL,此種傳輸方式將受到距離、纜線品質的影響。因此大多數業者所宣稱的20Mbit/s下載速度,僅能達到6.6 Mbit/s。有超過1/3的使用者速度為4 Mbit/s或更低。
F英國今年7月正式實施之寬頻速度自律規則(Voluntary Code of Practice on Broadband Speeds),為業者自願加入。除提供消費者「典型的速度範圍」(Typical Speed Range, TSR)資訊外,若消費者可使用速度小於業者宣稱之速度範圍,且業者無法解決問題時,在3個月內使用者可更換其他業者而無須罰款。目前已有BT、O2、Virgin Media等17家ISP業者加入自律規則中。
經濟合作與發展組織(Organisation for Economic Co-operation and Development, OECD)於2023年2月23日發布《促進AI可歸責性:在生命週期中治理與管理風險以實現可信賴的AI》(Advancing accountability in AI: Governing and managing risks throughout the lifecycle for trustworthy AI)。本報告整合ISO 31000:2018風險管理框架(risk-management framework)、美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)人工智慧風險管理框架(Artificial Intelligence Risk Management Framework, AI RMF)與OECD負責任商業行為之盡職調查指南(OECD Due Diligence Guidance for Responsible Business Conduct)等文件,將AI風險管理分為「界定、評估、處理、治理」四個階段: 1.界定:範圍、背景、參與者和風險準則(Define: Scope, context, actors and criteria)。AI風險會因不同使用情境及環境而有差異,第一步應先界定AI系統生命週期中每個階段涉及之範圍、參與者與利害關係人,並就各角色適用適當的風險評估準則。 2.評估:識別並量測AI風險(Assess: Identify and measure AI risks)。透過識別與分析個人、整體及社會層面的問題,評估潛在風險與發生程度,並根據各項基本價值原則及評估標準進行風險量測。 3.處理:預防、減輕或停止AI風險(Treat: Prevent, mitigate, or cease AI risks)。風險處理考慮每個潛在風險的影響,並大致分為與流程相關(Process-related)及技術(Technical)之兩大處理策略。前者要求AI參與者建立系統設計開發之相關管理程序,後者則與系統技術規格相關,處理此類風險可能需重新訓練或重新評估AI模型。 4.治理:監控、紀錄、溝通、諮詢與融入(Govern: Monitor, document, communicate, consult and embed)。透過在組織中導入培養風險管理的文化,並持續監控、審查管理流程、溝通與諮詢,以及保存相關紀錄,以進行治理。治理之重要性在於能為AI風險管理流程進行外在監督,並能夠更廣泛地在不同類型的組織中建立相應機制。
新近奈米科技智財法制之發展趨勢 日本「通信‧放送政策懇談會」提出最終報告日本總務省召開的「通信‧放送政策懇談會」,於本月 6 日進行今年第 14 次集會,提出該會之最終報告。 其中,有關 NTT (日本電信電話公司)之改革,預計於 2010 年解散目前所採行的控股公司架構,將其所掌控的 NTT 東日本、 NTT 西日本(主要經營固接電話以及上網服務),以及 NTT DoCoMo (主要經營行動通訊業務)三者完全分割,成為三間各自獨立的公司;且分割以後以上三者之間的合作關係亦應受到嚴密規制。至於 NHK (日本放送協會)之改革,則計畫釋出一個衛星頻道,兩個廣播頻道,同時娛樂以及體育節目相關部門,以及網路傳輸、國際播送業務等,應與 NHK 之核心業務切割,成立子公司自行獨立經營。 上開內容雖然是因應通信與放送兩大體系日漸匯流之趨勢而生,惟論者以為勢將引發輿論以及各大政黨之議論甚至反彈;而最終能否納入政府以及執政黨目前正在研擬規劃的施政綱領,仍在未定之天,有待持續追蹤觀察。
歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。