英國數位、文化、媒體暨體育部(Department for Digital, Culture Media & Sport, DCMS)於2018年3月公布5G測試平台及試驗計畫(5G Testbeds and Trials Programme)中之都市聯網計畫(Urban Connected Communities Project)政策文件,將於英國大規模推展5G試驗。同年9月4日,數位部部長宣佈其5G試驗團隊正與西密德蘭郡聯合管理局(the West Midlands Combined Authority, WMCA)及相關產業夥伴合作準備正式商業案例,預計將於2019年推行第一個計畫項目。
本項目內容側重於醫療及汽車業,包含:
1. 透過流暢的視訊方式進行遠距醫療諮詢(Outpatient appointment)或緊急醫療情況之諮詢,而該視頻之內容除可回放外,與家人及看護間並可進行共享查看,以提升醫療照護之效率與品質。
2. 「聯網救護車」:醫療輔助人員得於事故現場即時獲得專家建議,例如與顧問或臨床專家進行視訊。並於救護車內即能傳送患者之即時資訊至醫院,使患者抵達醫院時能進行快速且妥適處理。
3. 即時傳輸公共巴士上之閉路電視(CCTV)畫面,以便立即採取行動制止反社會行為(anti-social behaviour)。
計畫將可獲得高達5000萬英鎊之資金,並於柏明罕、考文垂以及伍爾弗漢普頓(Birmingham, Coventry and Wolverhampton)設立試驗中心執行相關計畫。
本文為「經濟部產業技術司科技專案成果」
英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
何謂「數位藥丸(digital pill)」?「數位藥丸(digital pill)」顧名思義就是將藥物與數位科技結合,藥丸上載有感測器(sensor),在進入人體後傳輸訊號至病人身上的訊號接收器貼片,相關資訊再被傳送給醫療人員。由於許多研究顯示約有半數病人並不會完全遵照醫師指示服藥,使治療效果不彰,並造成醫療資源之浪費。而電子藥丸有助需長期頻繁用藥的族群定時服藥與協助醫療機構追蹤病人服藥狀況,並在臨床試驗中持續觀察病患用藥後的生理反應。 日前美國食品藥物管理署(Food and Drug Association)已接受Proteus Digital Health公司之上市審核申請,不久之後人們將有望享受到此數位藥丸帶來的便利。不過其亦存有一些疑慮以及待克服的技術問題,例如:個人資料之保護措施、控制藥物釋放之系統故障或遭惡意攻擊時之應變等等問題。同時,雖然許多人都認為數位藥丸對病人之疾病控制有利,但是病人之拒絕治療權卻可能因而犧牲,雖然醫生不能強迫病人服藥,但法院強制處分常會牽涉特定的治療程序,此時若病人拒絕服藥,其假釋可能被撤銷,該技術將可能成為一個監視的手段。
法國政府考慮強制業者公布使用奈米材料之相關資訊茲因回應2008年針對環境議題所召開之國家諮詢會議,並考量整體環境變遷快速,有待解決之相關問題與過往相較已有所不同,法國政府於2009年1月7日公布新修正之環保法令草案,力求與時俱進;其新環境法規草案著重以下主題:建築與都市計畫、交通、能源與氣候、生物多樣性、風險、健康與廢棄物處理。 其中值得注意者,係針對可能導致危害環境或人體健康的奈米粒子材料,於新法中加以規範。依該新環保法草案第73條,除非個案內容有損國家安全因而為特例之外,現行製造、輸入與使用奈米粒子材料於產品之業者,必須就該奈米材料之性質、數量與使用方式加以揭露,使公眾周知;此外,於主管機關的要求下,業者應評估並呈報該奈米材料之暴露程度與所潛藏之風險。 之所以將奈米粒子納入規範當中,係參考「化學物質登記、評估、授權和管制法」(Registration, Evaluation, Authorisation and Restriction of Chemical substances,REACH),基於永續發展之目標,因而於產品製造及銷售的過程中,賦予製造商與進口商特定之責任與義務;亦即業者必須以負責任之態度製造、進口或使用化學物質,進而取得該化學物質之相關資訊,使之透明化,以確保人體健康和環境免於受到負面影響,促成風險管理措施之順利運行。 該等觀念彰顯了本次法國環境法規修改之特色,其六大主題之規範更需要諸多政府部門的通力合作;再者,法國於積極發展奈米科技的同時,以客觀之態度審視其優缺點,試圖掌握奈米粒子材料之特性,作為管理潛在風險之判斷基準。該法案於2009年2月10日送至議會待表決,後續發展仍值得注意。
IBM提出「人工智慧日常倫理」手冊作為研發人員指引隨著人工智慧快速發,各界開始意識到人工智慧系統應用、發展過程所涉及的倫理議題,應該建構出相應的規範。IBM於2018年9月02日提出了「人工智慧日常倫理」(Everyday Ethics for Artificial Intelligence)手冊,其以明確、具體的指引做為系統設計師以及開發人員間之共同範本。作為可明確操作的規範,該手冊提供了問責制度、價值協同、可理解性等關注點,以促進社會對人工智慧的信任。 一、問責制度(Accountability) 由於人工智慧的決策將作為人們判斷的重要依據,在看似客觀的演算系統中,編寫演算法、定義失敗或成功的程式設計人員,將影響到人工智慧的演算結果。因此,系統的設計和開發團隊,應詳細記錄系統之設計與決策流程,確保設計、開發階段的責任歸屬,以及程序的可檢驗性。 二、價值協同(Value Alignment) 人工智慧在協助人們做出判斷時,應充分考量到事件的背景因素,其中包括經驗、記憶、文化規範等廣泛知識的借鑑。因此系統設計和開發人員,應協同應用領域之價值體系與經驗,並確保演算時對於跨領域的文化規範與價值觀之敏感性。同時,設計師和開發人員應使人工智慧系統得以「了解並認知」用戶的價值觀,使演算系統與使用者之行為準則相符。 三、可理解性(Explainability) 人工智慧系統的設計,應盡可能地讓人們理解,甚至檢測、審視它決策的過程。隨著人工智慧應用範圍的擴大,其演算決策的過程必須以人們得以理解的方式解釋。此係讓用戶與人工智慧系統交互了解,並針對人工智慧結論或建議,進而有所反饋的重要關鍵;並使用戶面對高度敏感決策時,得以據之檢視系統之背景數據、演算邏輯、推理及建議等。 該手冊提醒,倫理考量應在人工智慧設計之初嵌入,以最小化演算的歧視,並使決策過程透明,使用戶始終能意識到他們正在與人工智慧進行互動。而作為人工智慧系統設計人員和開發團隊,應視為影響數百萬人甚至社會生態的核心角色,應負有義務設計以人為本,並與社會價值觀和道德觀一致的智慧系統。