美國自911事件後,事後檢討之建議之一為統合全美單一公共安全網路,可供跨部門之第一線救災人員使用。俟後美國於2008年拍賣700MHz頻段 (Auction 73)時,原本將Block D (788-793MHz/ 758-763MHz)共10MHz規劃為全國單一執照(Nationwide License),並與公共安全(public safety)頻段相連,得標者須與美國政府簽訂網路分享協議(Network Sharing Agreement, NSA),在必要時供緊急服務優先使用,惟該頻段歷經兩次拍賣均低於底價流標。2012年,商務部成立獨立機構First Responder Network Authority (下稱FirstNet),規劃如何統合所有與公共安全相關之通訊網路,FCC在2016年將前述流標之700MHz頻段撥交FirstNet使用。
FirstNet 2017年3月宣布與AT&T達成25年之合作協議,由AT&T協助該機構建置緊急服務人員專用之全國性LTE無線寬頻網路,該網路之主要用途為當緊急事故發生時,第一線之人員可利用該關鍵基礎設施進行通訊聯繫之用。FirstNet與AT&T的合作協議主要包括以下三個部分:
近年來,公共安全災防 (Public Protection and Disaster Relief)寬頻網路已成為許多先進國家的首要推動政策,包含英國與境內第一大電信商Everything Everywhere (EE)合作,芬蘭政府近來亦與電信商Telia共同合作測試LTE技術之公共安全網路。
為了讓聽力或語言障礙之民眾,取得更為便利的電信服務,英國Ofcom在2012年10月透過「回顧中繼服務-決策下世代文字中繼服務」(Review of relay services: Decision on the introduction of Next Generation Text Relay)陳述書(Statement)之發佈,提高通訊服務業者 (communications providers)對身障者的義務。根據陳述書內容,英國市話、行動通信業者必須在2014年4月18日,達成「下世代文字中繼服務」(Next Generation Text Relay,NGTR)之要求。因此,英國電信BT於去(2013)年11月提出審查申請,並在今年3月獲得Ofcom許可。 Ofcom要求下世代中繼服務最主要重點,主要可分為(1)透過網際網路的連接,提供雙向語音服務,讓雙方談話更為流暢;(2)促使更多載具皆可使用文字中繼服務。BT為了落實上述核心要求,除了透過提升服務性能、技術應變能力、員工培訓與申訴機制,增加中繼服務的品質,以通過Ofcom核可外,BT亦允諾2014年4月18日後,該公司文字中繼服務將可進一步延伸至: 1.既有文字電話(textphones)與視障閱讀器(Braille readers)。 2.支援Windows XP系統以上個人、筆記型電腦。 3.適用Linux的Intel個人、筆記型電腦。 4.Intel型Mac OS X版本。 5.行動電話具有Android 4的作業系統。 6.2014年6月30日將可提供服務至蘋果公司相關產品,包括iPhone與iPad。 BT不僅提供文字中繼服務於自身客戶,亦提供批發接取(Wholesale access)於其他通訊服務業者,使其具備文字中繼服務,讓非BT的消費者亦可獲得無障礙服務。相信隨著更多通訊服務業者提升文字中繼服務功能後,將可讓聽障、語言障礙民眾使用電信服務更加便利,使英國充分落實聯合國「身心障礙者權利公約」之精神。
OECD發布「促進人工智慧風險管理互通性的通用指引」研究報告經濟合作發展組織(Organisation for Economic Co-operation and Development,下稱OECD)於2023年11月公布「促進AI風險管理互通性的通用指引」(Common Guideposts To Promote Interoperability In AI Risk Management)研究報告(下稱「報告」),為2023年2月「高階AI風險管理互通框架」(High-Level AI Risk Management Interoperability Framework,下稱「互通框架」)之延伸研究。 報告中主要說明「互通框架」的四個主要步驟,並與國際主要AI風險管理框架和標準的風險管理流程進行比較分析。首先,「互通框架」的四個步驟分別為: 1. 「定義」AI風險管理範圍、環境脈絡與標準; 2. 「評估」風險的可能性與危害程度; 3. 「處理」風險,以停止、減輕或預防傷害; 4.「治理」風險管理流程,包括透過持續的監督、審查、記錄、溝通與諮詢、各參與者的角色和責任分配、建立問責制等作法,打造組織內部的風險管理文化。 其次,本報告指出,目前國際主要AI風險管理框架大致上與OECD「互通框架」的四個主要步驟一致,然因涵蓋範圍有別,框架間難免存在差異,最大差異在於「治理」功能融入框架結構的設計、其細項功能、以及術語等方面,惟此些差異並不影響各框架與OECD「互通框架」的一致性。 未來OECD也將基於上述研究,建立AI風險管理的線上互動工具,用以協助各界比較各種AI風險管理框架,並瀏覽多種風險管理的落實方法、工具和實踐方式。OECD的努力或許能促進全球AI治理的一致性,進而減輕企業的合規負擔,其後續發展值得持續追蹤觀察。
英國猶疑應否開放人獸混合細胞之胚胎幹細胞研究英國之胚胎幹細胞研究活動,係根據「1990年人類受精與胚胎學法」(Human Fertilisation and Embryology Act 1990,HF&E Act)和「2001年人類受精與胚胎學規則」(Human Fertilisation and Embryology (Research Purposes) Regulations 2001,Research Purposes Regulations)之規定,授權由「人類受精與胚胎學管理局」(Human Fertilisation and Embryology Authority,HFEA)依法管理。 新堡大學東北英格蘭幹細胞中心(North East England Stem Cell Institute)Lyle Armstrong博士,在去年底向HFEA申請一項涉及混合人類與動物細胞製造胚胎幹細胞之研究許可;其計劃利用細胞核轉置技術,將牛的卵子細胞核取出,植入人類體細胞核,並刺激其分裂形成胚囊或早期複製胚胎,用以研究培養病患所需身體組織之技術。過去HFEA從未曾核准過此類研究,僅核准過2件利用細胞核轉置技術和單性活化卵母細胞製造胚胎幹細胞株作為醫學研究之申請。此研究申請訊息一流出,即引起保守團體嘩然及指責,要求英國政府應盡速立法,禁止製造人獸混合細胞之實驗活動。面對各界抗議聲浪,HFEA表示,會暫緩此申請案。 事實上,去年12月英國健康部提出了一篇報告-「人工生殖及胚胎學法之檢討」(Review of the Human Fertilisation and Embryology Act),建議國會應儘速立法規範人類動物細胞混合研究。而英國政府與人民究竟能否接受混合人類動物遺傳細胞研究之合法性、合道德性,則為未來立法動向之重要指標。
英國資訊委員辦公室提出人工智慧(AI)稽核框架人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。 AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。 「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。 ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。