英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議:
(一)關於人工智慧及應用界定與發展
人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。
(二)未來對社會及政府利益及衝擊
人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。
目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。
在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。
(三)關於相關道德及法律風險管理課題
人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考:
(1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。
(2)調適由人工智慧作決策行為時的歸責概念和機制。
有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。
針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。
人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。
本文為「經濟部產業技術司科技專案成果」
澳洲政府於2023年12月通過身分核驗法(Identity Verification Services Act 2023,以下稱IVS法)及其相應修正案(Identity Verification Services (Consequential Amendments) Act 2023,以下稱修正案)。聯邦政府考量IVS法案將影響既有法規,同時提交修正案,兩法案旨在建構身分核驗服務架構,促進驗證流程之監管與透明化。澳洲政府規劃之數位身分系統正逐步法制化,IVS法與同年11月通過之法定聲明修正案(Statutory Declarations Amendment Act 2023)將為該系統奠定基礎。修正案涉及2005年澳洲護照法,以下僅簡要介紹IVS法之驗證服務內涵。 該法規定三項聯邦政府部門可提供之身分驗證服務:文件核驗服務(Document Verification Service, DVS)、臉部核驗服務(Face Verification Service, FVS)與臉部識別服務(Face Identification Service, FIS),並授權相關部門發展對應之認證設施,以電子通訊方式確認身分核驗請求。請求身分驗證服務需獲個人明確同意並告知相關權利後方可進行,其驗證型態分為:核驗(Verification)與識別(Identification),前者涉及確認個人為所宣稱之身分的過程,以一對一比對回傳個人所稱是否為真;後者則為識別個人身分之過程,透由多人或多份文件逐一比對後回傳個人身分。文件核驗使用頻率及範圍最廣泛,公、私部門皆可申請使用;臉部核驗目前僅聯邦政府有使用權限,地方與州政府及私部門未來將可透過書面協議參與。臉部識別因其驗證方式涉及個資使用與隱私議題,請求者限於證人保護機構、執法或情報人員。 IVS法案及其相應修正案於2023年9月提送國會討論,同年12月經參、眾兩院通過。法案審議期間曾有倉促立法的爭議,有論者認為當局急於為公、私部門行之有年的身分核驗行為提供法規依據,並安排極短的法案辦論時間以限縮討論。
英國Ofcom發布說明行動網路與Wi-Fi混合共享上層6 GHz 頻段重要性之文件,以最大化頻譜利用效率。英國通訊傳播管理局(The Office of Communications, Ofcom)於2024年5月21日發布「行動網路與Wi-Fi混合共享上層6 GHz 頻段之重要性」(Mobile and Wi-Fi in Upper 6 GHz: Why hybrid sharing matters)文件,指出為促進稀缺頻譜資源有效利用,需實施創新頻譜共享機制,以便為更多用戶提供服務。有鑑於2023年世界無線電通訊大會(World Radiocommunication Conference 2023, WRC-23)決議上層6 GHz(6425-7125 MHz)為國際行動通訊(International Mobile Telecommunications, IMT)使用頻段,同時承認該頻段可供Wi-Fi等無線接取系統(wireless access systems)使用,因此Ofcom初步探索出兩種可能分割方式,並於文件中分享,期望透過靈活混合共享機制,在與其他既有使用者共存之同時服務更多用戶: 1.可變頻譜分割(Variable spectrum split): 此方法將上層6GHz分割為Wi-Fi及行動網路優先頻段,Wi-Fi和行動網路可於各自優先頻段中自由布建,亦可於不干擾對方之前提下,於對方之優先頻段布建。 2.室內外分割(An indoor/ outdoor split): 此方法以建築物做為兩技術運作之分界,於室外及淺層室內(shallow indoor)區域布建6GHz行動網路,以降低既有3GHz行動通訊服務之負載;6GHz覆蓋不到之範圍,則仍由3GHz提供服務。室內大部分區域則分配給Wi-Fi布建,降低兩技術重疊布建情形,確保資源有效運用。 未來Ofcom將持續與業界合作開發其他混合共享框架技術與解決方案,計劃於2025年發布有關此主題之技術報告,早日實現行動網路與Wi-Fi之共享機制。
FDA公布修訂行動醫療APP指導原則美國於2015年2月5日公布修訂之行動醫療應用程式指導原則(Mobile Medical Applications, Guidance for Industry and Food and Drug Administration Staff),取代原先在2013年9月公布之版本。本次的修訂主要是將美國2015年2月9日公布之醫療設備資訊系統、醫療影像儲存設備、及醫療影像傳輸設備指導原則(Medical Device Data Systems, Medical Image Storage Devices, and Medical Image Communications Devices, Guidance for Industry and Food and Drug Administration Staff)規範納入其中。 2015年2月9日公布之醫療設備資訊系統、醫療影像儲存設備及醫療影像傳輸設備指導原則,擬降低FDA的管理程度,採用風險性評估方式,針對部分醫療設備資訊系統、醫療影像儲存設備及醫療影像傳輸設備等三種屬於第一級低風險之醫療器材,得不受ㄧ般管制,例如不需要登記、上市後報告及品質系統法規遵守等。原先,美國於2011年先將醫療設備資訊系統從第三級之高風險醫療器材,降低為第一級低風險之醫療器材,但經過長期間的使用經驗後,FDA認為,此等醫療器材設備在健康照護中十分重要,但相對於其他醫療器材,風險則較低,因此,將放寬程序。 行動健康應用程式亦可能歸類為上述之醫療器材,因此,為與上述的指導原則相符合,對於行動健康應用程式的審查亦作部分放寬。例如,當應用程式與資療資訊系統結合,而成為應受規範之醫療器材時,原先之規定為應進入醫療器材之規範程序,但新修訂之指導原則,則再放寬。僅將涉及積極的病人監測或醫療器材數據分析時,才需要回歸醫療器材之審查方式,其他醫療資訊系統若僅為儲存、傳輸等功能,而非主要提供診斷、治療等功能時,則可以不受醫療器材之規範限制,因風險程度較低,因此改由FDA視個案審查即可。為鼓勵相關產業的發展,FDA將風險性低之醫裁降低管理程度,其後續發展值得觀察。
美國國家標準暨技術研究院發布「全球AI安全機構合作策略願景目標」,期能推動全球AI安全合作美國國家標準暨技術研究院(National Institute of Standards and Technology, NIST)於2024年5月21日提出「全球AI安全機構合作策略願景目標」(The United States Artificial Intelligence Safety Institute: Vision, Mission, and Strategic Goals,下稱本策略願景),美國商務部(Department of Commerce)亦於2024年參與AI首爾峰會(AI Seoul Summit)期間對外揭示本策略願景,期能與其他國家攜手打造安全、可靠且可信賴之AI生態系。 由於AI可信賴與否往往取決於安全性,NIST指出當前AI安全所面臨的挑戰包含:一、欠缺對先進AI之標準化衡量指標;二、風險測試、評估、驗證及確效(Test, Evaluation, Validation, and Verification, TEVV)方法不健全;三、欠缺對AI建模後模型架構與模型表現間因果關係的了解;四、產業、公民社會、國內外參與者等在實踐AI安全一事上合作程度極為有限。 為因應上述挑戰並促進AI創新,NIST在本策略願景中擬定以下三大戰略目標:(1)推動AI安全科學發展:為建立安全準則與工具進行技術合作研究,並預先部署TEVV方法,以利評估先進AI模型之潛在風險與應對措施;(2)推展AI安全實務作法:制定並發布不同領域AI風險管理之相關準則與指標,以達到負責任設計、開發、部署與應用AI模型與系統之目的;(3)支持AI安全合作:促進各界採用前述安全準則、工具或指標,並推動全球合作,以發展國際通用的AI安全風險應對機制。