18F與加州政府共同打造採購新流程

  美國的數位服務推動小組18F(Digital service delivery,18F),因辦公室位於華盛頓特區F街18號而得名。2014年3月由總務署(General Service Administration,GSA)成立,透過業界與政府合作模式,幫助政府機關改善流程及增進效率,其所輔導的專案計畫將實際轉變政府機關提供數位服務及科技產品之運作模式,以達跨部會、機關之整合,並使對公眾的數位服務更便於使用。

  18F為幫助美國各機關建造、購買及分享現代數位服務以提升政府的使用者經驗,提供了五項服務:(一)就已存的數位規格(digital component)打造訂製化產品(custom products);(二)以創新方式購買科技,使各政府能夠獲得更快、更好及產生更好結果的IT服務。詳細服務內容有代寫委外服務建議書(Request For Proposal,RFP)、開發市場利用現代技術購買IT服務、購買開放源代碼(open source code)以提升專案計畫;(三)替政府建造一安全、可擴展的工具與平台,其能更加符合需求並能夠持續為改善以達需求;(四)協助成為數位化組織,不只是增加組織內部數位化能力,更要形成數位習慣並最終促使組織文化改變;(五)透過討論會、設計工作室、指南及文件工作平台,提供及分享18F實際運用的相關現代數位化服務技術,使政府機關能自行複製及使用。

  近期知名成果案例發生於加州。在加州,每一年的孩童福利服務案件管理系統超過2萬名社工利用為追蹤管理超過50萬件虐待及忽視兒童案件,若使用過時系統產生風險將無法估計,故加州政府、美國衛生與人群服務部(Department of Health and Human Services,DHHS)即利用了前述相關服務,與18F共同重新設計該系統的採購流程。從2015年11月至2016年10月,合作建立新系統不到1年的時間,導入了契約文件之簡化、模組化(modular)契約之合併、敏捷性開發(agile development)、使用者中心之設計及開放源(open source)之實踐。

  首先,代寫委外服務建議書,18F於其中展示如何將專案計畫為模組化,亦即別於過往採購的傳統模式,非尋找單一開發商去建置整個已預設需求的系統,透過分離的方式,找尋不同開發商以更符合實際需求,亦能避免時間金錢的浪費,降低遲約或違約之風險。再者,聚集可能符合資格的供應商,邀請眾供應商建造以開放源代碼(open source code)方式的原型(prototype)。透過此一過程的激盪,18F從中協助評估所提出的原型、技術等,以了解供應商如何提出及是否符合使用者中心的設計。同時也能減少政府與供應商雙方的招標時間及行政成本。最後,為使加州政府機關能自行複製及使用相關現代數位化服務技術,18F示範敏捷軟體開發(agile software development)專案計畫。從中加州政府不僅瞭解如何為風險評估,且思考相關技術部門於專案計畫中的角色定位。

  面臨現代化數位服務,在美國,聯邦與州政府都面臨極大挑戰。18F介入發展新模式,更能達實際需求,亦為內化之協助,利於政府自行發展其他數位服務。18F與加州政府合作之案例,或許能為國家發展數位服務運作之借鏡。

相關連結
※ 18F與加州政府共同打造採購新流程, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7655&no=64&tp=1 (最後瀏覽日:2026/05/17)
引註此篇文章
你可能還會想看
以色列發布人工智慧監管與道德政策

以色列創新、科學及技術部(Ministry of Innovation, Science and Technology)於2023年12月17日公布以色列首個關於人工智慧的監管和道德政策,在各行各業將人工智慧作為未來發展方向的趨勢下,以多元、協作、原則、創新的理念為其導向,為了化解偏見、人類監督、可解釋性、透明度、安全、問責和隱私所帶來的衝擊,以色列整合政府部門、民間組織、學術界及私部門互相合作制定政策,以求解決人工智慧的七個挑戰,帶領以色列與國際接軌。 該人工智慧政策提出具體政策方向以制定措施,其中具有特色的三項為: 1. 軟性監管:人工智慧政策採取軟性監管制度,以OECD人工智慧原則(OECD AI Principles)為基礎,採行制定標準、監督與自律等方式促進人工智慧永續發展,注重以人為本的道德原則,強調創新、平等、可靠性、問責性。 2. 人工智慧政策協調中心(AI Policy Coordination Center):邀集專家學者成立跨部門的人工智慧政策協調中心,進行人工智慧政策研議,向政府部門監管提出建言,為人工智慧的開發使用建立風險管理,並代表國家參與國際論壇。 3. 公眾參與及國際合作:政府機關與監管機構舉辦人工智慧論壇,提出人工智慧的議題與挑戰,邀請相關人士參與討論,並積極參與國際標準制定,進行國際合作。 我國科技部在2019年邀集各領域專家學者研議提出「人工智慧科研發展指引」,強調以人為本、永續發展、多元包容為核心,以八大指引為標竿,推動人工智慧發展。我國已有跨部會溝通會議對於人工智慧法制政策進行研討,可觀察各國軟性監管措施作為我國人工智慧風險管理及產業政策參考,與國際脈動建立連結。

歐盟理事會修正《第428/2009號歐盟理事會規章》,提升歐洲軍民兩用出口管制力度

  歐盟理事會與歐洲議會於2020年12月14日,針對歐洲軍民兩用出口管制法規《第428/2009號歐盟理事會規章》(COUNCIL REGULATION (EC) No 428/2009)達成修正協議,並獲得歐盟理事會下設常駐代表委員會(Committee of Permanent Representatives, COREPER)認可後正式通過。《規章428/2009》用以規範歐盟軍民兩用出口管制,監管歐盟涉及「軍民兩用」敏感貨品、服務、軟體和技術的對外出口、內部轉口及過境貿易。因兩用貨品包含軍事用途及商用用途,故此次歐盟調整軍民兩用出口管制的相關規則,主要考量面向包括:英國脫歐對歐洲出口管制的影響;如何確保歐盟出口管制條例與國際反武器擴散制度相一致;以及解決網路監管和新興技術帶來的安全威脅等。本次歐洲軍民兩用出口管制修正重點如下: 提升出口管制力度,防止濫用網路監管等新興技術:管制項目具備監視、取得、蒐集或分析資通訊系統資料功能者,因涉及國家內部鎮壓或嚴重違反國際人權和國際人道法(International Humanitarian Law),即使未明列在歐盟軍民兩用法規的附件中,也應加強管制。 新增兩項歐盟一般出口許可證(EU General Export Authorisations, EU GEAs):包括集團內部技術轉讓(EU007)及加密(EU008),允許軍民兩用貨品出口至特定目的地。 統一歐盟軍民兩用貨品規則:例如技術協助屬於特定軍事用途且與軍民兩用相關者須經授權,歐盟成員國得配合擴張軍民兩用貨品清單。 強化企業調查和報告義務,遵守並適用出口管制規則:實施出口及授權作業的出口商,應落實內部合規計劃,確保企業遵守出口管制的政策和程序。 歐盟成員國間加強合作機制:促進資訊交流、政策調整和執法行動。

美國長粒米受到基因污染 Bayer被告上法庭

  美國農業部( USDA )在今( 2006 )年 8 月 18 日 公布,在 Arkansas 及 Missouri 的米倉發現,這些地方所儲存的美國長粒米( long grain rice )中含有 Bayer CropScience 未經核准的基因改造生物種。高品質的長粒米米粒細長,具有 20 %~ 25 %的中直鏈澱粉含量,米飯柔軟但鬆散,冷飯不變硬,在國際稻米市場有很高的評價,價格也最高。進口此型白米的國家有西歐、中東、加勒比海各國、新加坡、馬來西亞等,出口國為泰國,在歐洲市場上的售價,美國米略高於泰國米。美國長粒米的主要生產地是在 Arkansas ,意外事件發生時,當地農夫正在收成稻米。   截至目前 8 月底,美國本土因為基改稻米的基因污染了美國長粒米( U.S. long grain rice )的供應,而向 Bayer CropScience 提出損害賠償的訴訟已有三起,主要內容為請求因為基因污染致美國長粒米的價格下跌的損害賠償。另 由於相關的安全審查並未檢測出來此次流入外銷市場的美國長粒米,因此 雖然 USDA 表示混入 GMO 的長粒米並不會對人體或環境造成危害,但 世界各大進口國仍採取了相關緊急措施。 例如,日本於此消息一經公布後,當即停止美國長粒米的進口,而歐盟則表示只有經檢測證實從美國進口的長粒米未含有 Bayer CropScience 所研發尚未經許可之 GMO 特性,始得上架販售。

世界衛生組織發布歐洲區域人工智慧於醫療系統準備情況報告,責任規則為最重要之關鍵政策因素

世界衛生組織發布歐洲區域人工智慧於醫療系統準備情況報告,責任規則為最重要之關鍵政策因素 資訊工業策進會科技法律研究所 2025年12月18日 世界衛生組織(World Health Organization, WHO)於2025年11月19日發布「人工智慧正在重塑醫療系統:世衛組織歐洲區域準備情況報告」(Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region)[1],本報告為2024年至2025年於WHO歐洲區域醫療照護領域人工智慧(AI for health care)調查結果,借鑒50個成員國之經驗,檢視各國之國家戰略、治理模式、法律與倫理框架、勞動力準備、資料治理、利益相關者參與、私部門角色以及AI應用之普及情況,探討各國如何應對AI於醫療系統中之機會與挑戰。其中責任規則(liability rules)之建立,為成員國認為係推動AI於醫療照護領域廣泛應用之最重要關鍵政策因素,因此本報告建議應明確開發者、臨床醫生、資料提供者與醫療機構之責任,透過救濟與執法管道以保護病患與醫療系統之權益。 壹、事件摘要 本報告發現調查對象中僅有8%成員國已發布國家級醫療領域特定AI策略(national health-specific AI strategy),顯示此處仍有相當大之缺口需要補足。而就醫療領域AI之法律、政策與指導方針框架方面,46%之成員國已評估於現有法律及政策相對於醫療衛生領域AI系統不足之處;54%之成員國已設立監管機構以評估與核准AI系統;惟僅有8%之成員國已制定醫療領域AI之責任標準(liability standards for AI in health),更僅有6%之成員國就醫療照護領域之生成式AI系統提出法律要求。依此可知,成員國對於AI政策之優先事項通常集中於醫療領域AI系統之採購、開發與使用,而對個人或群體不利影響之重視與責任標準之建立仍然有限。於缺乏明確責任標準之情況下,可能會導致臨床醫師對AI之依賴猶豫不決,或者相反地過度依賴AI,從而增加病患安全風險。 就可信賴AI之醫療資料治理方面(health data governance for trustworthy AI),66%成員國已制定專門之國家醫療資料戰略,76%成員國已建立或正在制定醫療資料治理框架,66%成員國已建立區域或國家級醫療資料中心(health data hub),30%成員國已發布關於醫療資料二次利用之指引(the secondary use of health data),30%成員國已制定規則,促進以研究為目的之跨境共享醫療資料(cross-border sharing of health data for research purposes)。依此,許多成員國已在制定國家醫療資料戰略與建立治理框架方面取得顯著進展,惟資料二次利用與跨境利用等領域仍較遲滯,這些資料問題仍需解決,以避免產生技術先進卻無法完全滿足臨床或公衛需求之工具。 就於醫療照護領域採用AI之障礙,有高達86%之成員國認為,最主要之障礙為法律之不確定性(legal uncertainty),其次之障礙為78%之成員國所認為之財務可負擔性(financial affordability);依此,雖AI之採用具有前景,惟仍受到監管不確定性、倫理挑戰、監管不力與資金障礙之限制;而財務上之資金障礙,包括高昂之基礎設施成本、持續員工培訓、有限之健保給付與先進AI系統訂閱費用皆限制AI之普及,特別於規模較小或資源有限之醫療系統中。 就推動AI於醫療照護領域廣泛應用之關鍵政策因素,有高達92%之成員國認為是責任規則(liability rules),其次有90%之成員國認為是關於透明度、可驗證性與可解釋性之指引。依此,幾乎所有成員國皆認為,明確AI系統製造商、部署者與使用者之責任規則為政策上之關鍵推動因素,且確保AI解決方案之透明度、可驗證性與可解釋性之指引,也被認為是信任AI所驅動成果之必要條件。 貳、重點說明 因有高達9成之成員國認為責任規則為推動AI於醫療照護領域廣泛應用之關鍵政策因素,為促進AI應用,本報告建議應明確開發者、臨床醫生、資料提供者與醫療機構之責任,並建立相應機制,以便於AI系統造成損害時及時補救與追究責任,此可確保AI生命週期中每個參與者都能瞭解自身之義務,責任透明,並透過可及之救濟與執法管道以保護病患與醫療系統之權益;以及可利用監管沙盒,使監管機構、開發人員與醫療機構能夠在真實但風險較低之環境中進行合作,從而於監管監督下,於廣泛部署前能及早發現安全、倫理與效能問題,同時促進創新。 此外,WHO歐洲區域官員指出,此次調查結果顯示AI於醫療領域之革命已開始,惟準備程度、能力與治理水準尚未完全跟進,因此呼籲醫療領域之領導者與決策者們可考慮往以下四個方向前進[2]: 1.應有目的性地管理AI:使AI安全、合乎倫理與符合人權; 2.應投資人才:因科技無法治癒病人,人才是治癒病人之根本; 3.需建構可信賴之資料生態系:若大眾對資料缺乏信任,創新就會失敗; 4.需進行跨國合作:AI無國界,合作亦不應受限於國界。 參、事件評析 AI於醫療系統之應用實際上已大幅開展,就歐洲之調查可知,目前雖多數國家已致力於AI於醫材監管法規與資料利用規則之建立,據以推動與監管AI醫療科技之發展,惟由於醫療涉及患者生命身體之健康安全,因此絕大多數國家皆同意,真正影響AI於醫療領域利用之因素,為責任規則之建立,然而,調查結果顯示,實際上已建立醫療領域AI之責任標準者,卻僅有8%之成員國(50個國家中僅有4個國家已建立標準),意味著其為重要之真空地帶,亟待責任法制上之發展與填補,以使廠商願意繼續開發先進AI醫療器材、醫療從業人員願意利用AI醫療科技增進患者福祉,亦使患者於受害時得以獲得適當救濟。亦即是,當有明確之責任歸屬規則,各方當事人方能據以瞭解與評估將AI技術應用於醫療可能帶來之風險與機會,新興AI醫療科技才能真正被信任與利用,而帶來廣泛推廣促進醫療進步之效益。由於保護患者之健康安全為醫療領域之普世價值,此項結論應不僅得適用於歐洲,對於世界各國亦應同樣適用,未來觀察各國於AI醫療領域之責任規則發展,對於我國推廣AI醫療之落地應用亦應具有重要參考價值。 [1] Artificial intelligence is reshaping health systems: state of readiness across the WHO European Region, WHO, Nov. 19, 2025, https://iris.who.int/items/84f1c491-c9d0-4bb3-83cf-3a6f4bf3c3b1 (last visited Dec. 9, 2025). [2] Humanity Must Hold the Pen: The European Region Can Write the Story of Ethical AI for Health, Georgia Today, Dec. 8, 2025,https://georgiatoday.ge/humanity-must-hold-the-pen-the-european-region-can-write-the-story-of-ethical-ai-for-health/ (last visited Dec. 9, 2025).

TOP