英國發布「人工智慧:機會與未來決策影響」政策報告,並聚焦人工智慧運用及管理

  英國科學辦公室於2016年11月9日,發布一份政策報告:「人工智慧:機會與未來決策影響(Artificial intelligence: opportunities and implications for the future of decision making)」,介紹人工智慧對於社會及政府的機會和影響,此份政策報告並提出以下各項重要建議:

(一)關於人工智慧及應用界定與發展

  人工智慧是指由人工製造系統所表現出來的智慧。不僅是將現有的流程自動化,還包含制定目標,並利用電腦程式實現這些目標,常見案例包括線上翻譯、語音辨識、搜尋引擎篩選排序、垃圾郵件過濾、透過用戶回饋改善線上服務、預測交通流量、環境或社會經濟趨勢發展觀察等。

(二)未來對社會及政府利益及衝擊

  人工智慧針對提高生產力有巨大的潛力,最明顯的就是幫助企業或個人更有效地運用資源,並簡化大量資料的處理,例如Ocado 及 Amazon這樣的公司正充份利用人工智慧改善倉儲及銷售網路系統,使得客戶可便利快速購得網購商品。

  目前,政府也日益增加相關技術的運用,以提高公共服務效率,使資源達到最佳化分配;減少決策者被誤導的可能;使政府決策透明化;確保各部門更了解人民的意見。然政府在利用人工智慧及巨量資料時,應遵守倫理使用指南,並遵守英國資料保護法及歐盟一般資料保護規則等相關法規。

  在巨量資料、機器人、自動系統對於勞動市場的衝擊一直都是關注的議題,對於面臨未來工作結構的轉型及相關技術人員的進修及培養,應及早規劃,以適應未來的轉變。

(三)關於相關道德及法律風險管理課題

  人工智慧可能潛在相關道德倫理問題。許多專家認為政府應積極管理並降低風險發生可能性,可從以下兩個面向思考:

(1)研究機器學習與個人資料運用結合時,對個人自由、隱私和同意等概念的影響。

(2)調適由人工智慧作決策行為時的歸責概念和機制。

  有關實際案例之研究,則包括,執法單位在應用預測技術時,應避免以種族、國籍、地址作為標準,並嚴守無罪推定原則,以防止民眾受到歧視或不公平的指控;透過人工智慧可從公開資料推測出某些私人訊息或其親朋好友的消息,此訊息即可能超出原先個人同意披露的內容;原先匿名化及去識別化的訊息,因人工智慧功能加強,導至可能被重新識別,故須定期檢視該保護措施是否足夠。另外,人工智慧的演算偏差可能導致偏見的風險,為了降低這種風險,技術人員應採取對應措施。

  針對責任及疏失的判斷,目前尚無太多的實務案例,但為保持對使用人工智慧的信任,仍需有明確的歸責制,可能有必要讓首席執行長或高級主管對人工智慧做出的決策負最終責任。許多專家也建議,部分技術內容須保持透明度,以確定技術使用時是否有盡到相關注意義務。

  人工智慧已成為未來發展趨勢之一,對於社會整體層面影響將越來越深,新的技術除了可提升生產力,帶來便利的生活,同樣也會帶來衝擊。為促進相關產業發展及推展新技術的使用,應打造技術發展友善環境,並對於公眾安全進行相關風險評估,如果風險屬於現有監管制度範圍,應評估是否可充分解決風險,或是須要做相對應的調適。另外,在人工智慧融入現實世界同時,相關業者應注意相關產品安全性、隱私權保護和從業人員的倫理教育,以提高大眾對新技術的接受及信賴,並確保對於未來挑戰及轉變已做好萬全準備。

本文為「經濟部產業技術司科技專案成果」

相關連結
※ 英國發布「人工智慧:機會與未來決策影響」政策報告,並聚焦人工智慧運用及管理, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7678&no=57&tp=1 (最後瀏覽日:2026/04/14)
引註此篇文章
你可能還會想看
新加坡物聯網產品網路安全防護之初探

新加坡物聯網產品網路安全防護之初探 資訊工業策進會科技法律研究所 2023年06月30日 壹、事件摘要 近年物聯網(Internet of Things,簡稱IoT)產品蓬勃發展,伴隨著資通安全之威脅卻也日益加增,新加坡為此陸續訂定國內法規,以強化保障新加坡人民資訊流通之自由,並確立了網路安全標籤機制,藉以提高消費者對於物聯網產品資安的認識。另一方面,標籤制度能於消費者使用物聯網產品時,將產品受到不同層級之網路安全防護,或有別於一般用途使用等資訊,迅速傳達給消費者。據此,本文觀測新加坡近年主要的物聯網產品驗證制度與相關法規,供我國參考與借鏡。 貳、重點說明 一、新加坡物聯網網路安全法規 新加坡於2015年成立新加坡網路安全局[1](CSA),陸續為新加坡建立完善之物聯網產品網路安全防護機制,且新加坡於2018年訂定《網路安全法》[2],法案的第一部分已明示將「網路安全」列為實質保障內涵[3],並明訂須透過識別與分析威脅,以有效降低網路安全威脅帶來的風險。另為提高物聯網安全性,首先於亞太地區推出物聯網產品等級評估機制,即新加坡網路安全標籤機制[4](Cybersecurity Labelling Scheme, CLS),致力於保障新加坡的網路空間,並使消費者能夠識別符合網路安全規定之物聯網產品,以利消費者辨認選購。此外,CLS架構下設有驗證中心、通用標準以及標籤分級等措施,以強化物聯網產品資安防護為目的,也能落實《網路安全法》保障新加坡網路安全之精神。 (一)設置網路安全驗證中心[5](Cybersecurity Certification Centre, CCC):為驗證資安相關產品與服務之權責機關,透過CSA建置的驗證標準,成為新加坡企業採用資安產品之參考依據。 (二)建立通用標準(Common Criteria, CC):最初是由加拿大、法國、德國、荷蘭、英國與美國等多個國家安全標準組織聯合提出,以國際標準ISO/IEC 15408(Common Criteria for Information Technology Security Evaluation)作為替代其現有安全評估標準的通用標準。由於通用標準已於國際上受多國承認,資訊服務業者若經過相關驗證時,較易被新加坡企業採用。 (三)建立網路安全標籤機制(Cybersecurity Labelling Scheme, CLS):CSA針對智慧裝置推出網路安全標籤機制CLS,是以《網路安全法》做為上位精神而訂,但並不具強制力,而是以計畫推行之自願性認驗證機制。新加坡政府將物聯網設備根據其網路安全規定之級別進行評估分級,使消費者能夠識別符合較高等級網路安全規定的產品,並做出明智的決定。CLS共可分為4個等級(Level 1~4),第1級為產品滿足相關之基本要求(如密碼要求、提供軟體更新);第2級為該產品係使用安全設計原則進行開發(如進行相關之威脅評估、審驗程序);第3級為該產品經過第三方測試實驗室評估;第4級則經過第三方實驗室之滲透測試。此外,值得注意的是,新加坡亦與德國、芬蘭簽署備忘錄,以相互承認,也因此新加坡CLS網路安全標籤機制與德國的網路安全標籤制度(IT-Sicherheitskennzeichen)、芬蘭的網路安全標籤制度(Finnish Cybersecurity Label),可以進行互通使用。 參、事件評析 新加坡透對於物聯網產品之資安,透過訂定法規、成立權責機關與建立國際通用之標準與標籤機制,針對物聯網產品資安進行不同層次的保障。此外,採「驗證」方式保障人民生活不受網路威脅侵害,同時提高消費者對於物聯網產品資安之意識,可謂一舉數得之作法。而我國於物聯網產品發展以來,有政府以計畫支持「行動應用資安聯盟」提供相關物聯網產品之資安檢測認驗證標章,以供企業或消費者識別,物聯網產品經由實驗室檢測並由行動應用資安聯盟[6]審核通過後,核發合格證書及資安標章,並依照資安風險高低及安全技術實現複雜度,區分三個等級(L1~L3),分為適合一般家庭、商業用途與最高防護強度。於此認驗證機制下,已推出6項產品系列之驗證[7],並且採消費者導向之標章,足見我國政府同樣致力於提高消費者對於物聯網產品資安防護識別之意識;但此認驗證機制或有優化空間,今後可以參考新加坡作法,擴增可進行驗證的產品項目,持續提升保障消費者選購物聯網產品之資訊知悉權,同時可參酌國際上其他重點國家之風險評估方式,以系統性建置物聯網產品資安之風險評估通用標準,以確保該制度未來有機會被其他國家直接或間接承認,為國際接軌做準備,作為今後精進物聯網產品資安之目標,方可促使我國與國際產業鏈、海外市場逐步銜接,提升產業競爭力。 [1]新加坡網路安全局CSA(Cyber Security Agency),隸屬於總理辦公室(Prime Minister’s Office, PMO),由新加坡通訊暨新聞部(Ministry of Communications and Information)管理,https://www.csa.gov.sg/,(最後瀏覽日:2023/6/30)。 [2]Cybersecurity Act 2018, Singapore Statutes Online, https://sso.agc.gov.sg/Acts-Supp/9-2018/Published/20180312?DocDate=20180312, (last visited June 30, 2023). [3]Cybersecurity Act 2018, Part 1 PRELIMINARY, 2.—(1), (i)providing advice in relation to cybersecurity solutions, including— (i) providing advice on a cybersecurity program; or (ii) identifying and analysing cybersecurity threats and providing advice on solutions or management strategies to minimise the risk posed by cybersecurity threats. [4]Cybersecurity Labelling Scheme (CLS), CSA, https://www.csa.gov.sg/our-programmes/certification-and-labelling-schemes/cybersecurity-labelling-scheme, (last visited June 30, 2023). [5]SINGAPORE CSA, Certification and Labelling Schemes, About the Cybersecurity Certification Centre (CCC), https://www.csa.gov.sg/our-programmes/certification-and-labelling-schemes, (last visited June 30, 2023). [6]行動應用資安聯盟(Mobile Application Security Alliance),關於我們〈推動架構〉,https://www.mas.org.tw/about/background,(最後瀏覽日:2023/6/30)。 [7]包含:影像監控系統、智慧巴士、智慧路燈、空氣品質微型感測裝置、消費性網路攝影機、門禁系統等項目。行動應用資安聯盟(Mobile Application Security Alliance),IoT Q&A〈聯盟負責的物聯網資安檢測認證項目有哪些?〉,https://www.mas.org.tw/iot/questAndAnswer,(最後瀏覽日:2023/6/30)。

聯合國科研創新推動永續發展(STI for SDGs)

  2015年9月25日,聯合國發布「2030永續發展議程(2030 Agenda for Sustainable Development)」,強調科研創新是推動永續發展願景的核心關鍵(STI for SDGs),透過科學(Science)、技術(Technology)、創新(Innovation)三項STI指標以落實各國永續發展目標(Sustainable Development Goals,簡稱SDGs)。又為達成科研創新推動永續發展目標,必須建立技術促進機制(Technology Facilitation Mechanism, TFM), TFM主要透過聯合國成員國、民間社會、私營部門、科學界及其他利益相關方間的經驗分享與合作,由三部分組成包括:聯合國跨機構任務小組(Inter-Agency Task Team, IATT),科學、技術、創新促進永續發展目標多方利害關係人論壇(Multi-stakeholder Forum on science, technology and innovation for the sustainable development Goals, STI Forum),線上平台(online platform)。   其中,聯合國跨機構任務小組(IATT)於2019年6月擬定的「科學、技術和創新促進永續發展目標路線圖(Science, Technology and Innovation for SDGs Roadmaps, STI for SDG Roadmap)」,邀請各國參與試點計畫,協助國家檢視現有科研創新政策需求、掌握未來科研發展趨勢與可能面臨的挑戰與機會,乃協助政府決策的科技前瞻支援工具,藉此達成STI for SDGs科研創新政策與永續發展目標間之平衡。關於國家科研創新路線圖規畫方法論,可以區分為基礎(Foundation)、調適(Adaptation)、整合(Integration)三部分:盤點各國現有科研創新政策需求,歸納與SDGs間落差;嘗試將SDGs理念注入政策目標,建構符合SDGs的科研創新規範與政策監管標準;運用科技前瞻方法掌握未來發展趨勢,研擬對策並面對挑戰。

美國FTC通過「禁止企業簽訂競業禁止契約」的最終規定

美國聯邦貿易委員會(下稱FTC)於2024年4月23日通過「禁止企業簽訂競業禁止契約」最終版本的規定(以下稱「最終規定」) ,FTC認為「簽訂或執行競業禁止契約」違反《聯邦貿易委員會法》(Federal Trade Commission Act)第5條之防止不公平競爭之違法手段之規定。最終規定所禁止簽訂競業禁止契約的對象廣泛,包含獨立承包商、為營利企業工作的員工,並將可能取代其他規範競業禁止契約效力之州法。不過,尚有部分情形將排除最終規定的適用,如: (1)公司與高階主管的既有競業禁止契約仍屬有效,而高階主管被定義為「年收入超過 151,164 美元(約新臺幣4,927,492元)且擔任決策職位」的員工,如總裁、首席執行長或其他擁有企業重大決策權的職位。 (2)允許出於善意收購企業的雙方簽訂競業禁止契約。 (3)因FTC對於某些產業無監管權,因此該等產業不適用於禁止簽訂競業禁止契約的最終規定,如非營利組織、銀行、保險公司以及航空公司。 FTC指出最終規定於美國聯邦公報上公布120天(約4個月)後生效,並要求現已簽訂競業禁止契約之雇主負有通知義務,雇主須透過數位(電子郵件或簡訊)或紙本方式,明確地通知現任、前員工,其既有的競業禁止契約即將失效。 但美國商會(U.S. Chamber of Commerce)已聲明表示該最終規定有超出FTC管轄範圍之疑慮,故後續可否執行最終規定,仍有待密切關注。 為因應FTC大範圍禁止簽訂競業禁止契約之法制方向,建議公司可參考資策會科法所發布之「營業秘密保護管理規範」以系統性方式檢視不同面向的既有管理作法,如人員面、內容面等,以落實對於營業秘密的保護。 1.關於文件的管理建議 先盤點紙本及數位機密文件;再設定文件之接觸權限。 2.關於人員的管理建議 留意人員的智財教育訓練;人員的保密或智財權歸屬契約,確保契約約定已納入公司想保護的機密資訊,比如客戶或供應商名單及聯絡資訊、產品規格、製程等;以及離職管理。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。

世界衛生組織發布歐洲區域人工智慧於醫療系統準備情況報告,責任規則為最重要之關鍵政策因素

世界衛生組織發布歐洲區域人工智慧於醫療系統準備情況報告,責任規則為最重要之關鍵政策因素 資訊工業策進會科技法律研究所 2025年12月18日 世界衛生組織(World Health Organization, WHO)於2025年11月19日發布「人工智慧正在重塑醫療系統:世衛組織歐洲區域準備情況報告」(Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region)[1],本報告為2024年至2025年於WHO歐洲區域醫療照護領域人工智慧(AI for health care)調查結果,借鑒50個成員國之經驗,檢視各國之國家戰略、治理模式、法律與倫理框架、勞動力準備、資料治理、利益相關者參與、私部門角色以及AI應用之普及情況,探討各國如何應對AI於醫療系統中之機會與挑戰。其中責任規則(liability rules)之建立,為成員國認為係推動AI於醫療照護領域廣泛應用之最重要關鍵政策因素,因此本報告建議應明確開發者、臨床醫生、資料提供者與醫療機構之責任,透過救濟與執法管道以保護病患與醫療系統之權益。 壹、事件摘要 本報告發現調查對象中僅有8%成員國已發布國家級醫療領域特定AI策略(national health-specific AI strategy),顯示此處仍有相當大之缺口需要補足。而就醫療領域AI之法律、政策與指導方針框架方面,46%之成員國已評估於現有法律及政策相對於醫療衛生領域AI系統不足之處;54%之成員國已設立監管機構以評估與核准AI系統;惟僅有8%之成員國已制定醫療領域AI之責任標準(liability standards for AI in health),更僅有6%之成員國就醫療照護領域之生成式AI系統提出法律要求。依此可知,成員國對於AI政策之優先事項通常集中於醫療領域AI系統之採購、開發與使用,而對個人或群體不利影響之重視與責任標準之建立仍然有限。於缺乏明確責任標準之情況下,可能會導致臨床醫師對AI之依賴猶豫不決,或者相反地過度依賴AI,從而增加病患安全風險。 就可信賴AI之醫療資料治理方面(health data governance for trustworthy AI),66%成員國已制定專門之國家醫療資料戰略,76%成員國已建立或正在制定醫療資料治理框架,66%成員國已建立區域或國家級醫療資料中心(health data hub),30%成員國已發布關於醫療資料二次利用之指引(the secondary use of health data),30%成員國已制定規則,促進以研究為目的之跨境共享醫療資料(cross-border sharing of health data for research purposes)。依此,許多成員國已在制定國家醫療資料戰略與建立治理框架方面取得顯著進展,惟資料二次利用與跨境利用等領域仍較遲滯,這些資料問題仍需解決,以避免產生技術先進卻無法完全滿足臨床或公衛需求之工具。 就於醫療照護領域採用AI之障礙,有高達86%之成員國認為,最主要之障礙為法律之不確定性(legal uncertainty),其次之障礙為78%之成員國所認為之財務可負擔性(financial affordability);依此,雖AI之採用具有前景,惟仍受到監管不確定性、倫理挑戰、監管不力與資金障礙之限制;而財務上之資金障礙,包括高昂之基礎設施成本、持續員工培訓、有限之健保給付與先進AI系統訂閱費用皆限制AI之普及,特別於規模較小或資源有限之醫療系統中。 就推動AI於醫療照護領域廣泛應用之關鍵政策因素,有高達92%之成員國認為是責任規則(liability rules),其次有90%之成員國認為是關於透明度、可驗證性與可解釋性之指引。依此,幾乎所有成員國皆認為,明確AI系統製造商、部署者與使用者之責任規則為政策上之關鍵推動因素,且確保AI解決方案之透明度、可驗證性與可解釋性之指引,也被認為是信任AI所驅動成果之必要條件。 貳、重點說明 因有高達9成之成員國認為責任規則為推動AI於醫療照護領域廣泛應用之關鍵政策因素,為促進AI應用,本報告建議應明確開發者、臨床醫生、資料提供者與醫療機構之責任,並建立相應機制,以便於AI系統造成損害時及時補救與追究責任,此可確保AI生命週期中每個參與者都能瞭解自身之義務,責任透明,並透過可及之救濟與執法管道以保護病患與醫療系統之權益;以及可利用監管沙盒,使監管機構、開發人員與醫療機構能夠在真實但風險較低之環境中進行合作,從而於監管監督下,於廣泛部署前能及早發現安全、倫理與效能問題,同時促進創新。 此外,WHO歐洲區域官員指出,此次調查結果顯示AI於醫療領域之革命已開始,惟準備程度、能力與治理水準尚未完全跟進,因此呼籲醫療領域之領導者與決策者們可考慮往以下四個方向前進[2]: 1.應有目的性地管理AI:使AI安全、合乎倫理與符合人權; 2.應投資人才:因科技無法治癒病人,人才是治癒病人之根本; 3.需建構可信賴之資料生態系:若大眾對資料缺乏信任,創新就會失敗; 4.需進行跨國合作:AI無國界,合作亦不應受限於國界。 參、事件評析 AI於醫療系統之應用實際上已大幅開展,就歐洲之調查可知,目前雖多數國家已致力於AI於醫材監管法規與資料利用規則之建立,據以推動與監管AI醫療科技之發展,惟由於醫療涉及患者生命身體之健康安全,因此絕大多數國家皆同意,真正影響AI於醫療領域利用之因素,為責任規則之建立,然而,調查結果顯示,實際上已建立醫療領域AI之責任標準者,卻僅有8%之成員國(50個國家中僅有4個國家已建立標準),意味著其為重要之真空地帶,亟待責任法制上之發展與填補,以使廠商願意繼續開發先進AI醫療器材、醫療從業人員願意利用AI醫療科技增進患者福祉,亦使患者於受害時得以獲得適當救濟。亦即是,當有明確之責任歸屬規則,各方當事人方能據以瞭解與評估將AI技術應用於醫療可能帶來之風險與機會,新興AI醫療科技才能真正被信任與利用,而帶來廣泛推廣促進醫療進步之效益。由於保護患者之健康安全為醫療領域之普世價值,此項結論應不僅得適用於歐洲,對於世界各國亦應同樣適用,未來觀察各國於AI醫療領域之責任規則發展,對於我國推廣AI醫療之落地應用亦應具有重要參考價值。 [1] Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region, WHO, Nov. 19, 2025, https://iris.who.int/items/84f1c491-c9d0-4bb3-83cf-3a6f4bf3c3b1 (last visited Dec. 9, 2025). [2] Humanity Must Hold the Pen: The European Region Can Write the Story of Ethical AI for Health, Georgia Today, Dec. 8, 2025,https://georgiatoday.ge/humanity-must-hold-the-pen-the-european-region-can-write-the-story-of-ethical-ai-for-health/ (last visited Dec. 9, 2025).

TOP