人工智慧作為一前瞻性技術,運用於公部門,可以降低成本、提高管理品質、節省基層公務人員時間,整體改善政府公共服務。然而AI技術進化以及市場發展過於快速,現有採購類型沒有可以直接適用AI採購的判斷標準範本。因此,英國人工智慧辦公室(Office for Artificial Intelligence)與產官學研各界進行研商後,於2019年9月20日發表人工智慧採購指南草案(Draft Guidelines for AI procurement),作為公部門採購AI產品與服務之準則。該指南旨在加強公部門採購人員能力、協助採購人員評估供應商,讓廠商可以隨之調整其產品和服務內容。
該指南提供採購人員規劃政府AI採購的方向,包含招標、公告、評選、決標到履約。但指南強調無法解決採購AI產品與服務時遇到的所有挑戰。
指南內容簡述如下:
本文為「經濟部產業技術司科技專案成果」
英國氣候變遷委員會(Climate Change Committee)於2024年7月18日依據《氣候變遷法》(Climate Change Act)向議會提交「2024年減排進度報告」(Progress in Reducing Emissions 2024 Report)。該報告提出多項政府為達成溫室氣體減量目標應優先執行之政策建議,重點內容如下: 1.調整政策以排除尚未成熟的低碳發電部署相關措施及其社會成本,以降低電價。 2.針對上屆政府推遲化石燃料車輛銷售禁令、決定20%家戶毋須淘汰化石燃料鍋爐,及免除房東提升租屋能效之義務等政策,應迅速恢復推動。 3.移除阻礙熱泵、電動車充電樁及陸域風電等關鍵技術部署的行政障礙。 4.提出公部門建築去碳之完整多年期戰略計畫。 5.改善再生能源差價合約(contracts for difference)競標機制的設計與執行。 6.提供政策支持以加速產業電氣化,促進多數產業轉向使用電熱技術。 7.加強植樹造林及泥炭地復育。 8.確立大規模部署人為工程碳移除技術(engineered removals)的商業模式,以實現2030年,每年移除至少500萬噸二氧化碳目標。 9.就全國推動淨零轉型所需之勞工技能進行全面評估與規劃。 10.強化國家氣候變遷調適政策,設定明確且可衡量之目標,以作為其他重大政策之制定基礎。 總體而論,英國的溫室氣體減量目標正面臨難以達成的重大風險,政府應迅速採取行動,並優先執行氣候變遷委員會所提出之政策建議。
英國與印度共同簽署智慧財產權備忘錄2016年11月8日印度新德里(New Delhi),在英國首相德蕾莎‧梅伊(Theresa May)及印度總理納倫德拉‧莫迪(Narendra Modi))見證下,由英國智慧財產局(UK Intellectual Property Office;簡稱UK IPO)及產業政策與推廣部(Department of Industrial Policy and Promotion)共同簽署智慧財產權備忘錄。 雖然學術上就智慧財產權之保障強度,對於促進創新領域是否具有正面效益,似乎仍然是意見分歧,反思者主要論點在於模仿或抄襲對於某些產業發展,如:時尚設計、金融產品或程式開發等,反而有益於保持源源不絕之創造力,甚且適度開放更有促進市場競爭與減少社會成本,如:避免專利蟑螂崛起或企業壟斷,其中著名案例就是Linux;然而,雖有前述反思浪潮,但目前國際間仍是普遍相信藉由協議或備忘錄形式,試圖架構完善且強健之智慧財產權保護體系,維護權利人之權益,將有助於提升企業或一般民眾投入創新領域之意願。此番論點可見諸於英國所指派至印度擔任高級專員之多米尼克‧阿斯奎斯(Dominic Asquith),即是認為英國與印度簽署智慧財產權備忘錄,對於兩國創新及創意領域之發展,具有高度重要性。 針對該備忘錄之重點,內容摘錄如下: 1、相互交流智慧財權領域管理優化方式,如:簡化專利、商標、工業設計之註冊處理流程。 2、技術交流,此包括主管機關支援及智慧財產權紛爭之司法替代方案。 3、宣傳活動,此含有智慧財產權評價與維護之業務諮詢。 4、針對公眾舉行教育活動,以提高其對智慧財產權之認識與尊重。
歐盟執委會通過關於《人工智慧責任指令》之立法提案歐盟執委會(European Commission)於2022年9月28日通過《人工智慧責任指令》(AI Liability Directive)之立法提案,以補充2021年4月通過之《人工智慧法》草案(Artificial Intelligence Act)。鑑於人工智慧產品之不透明性、複雜性且具自主行為等多項特徵,受損害者往往難以舉證並獲得因人工智慧所造成之損害賠償,《人工智慧責任指令》立法提案即為促使因人工智慧而受有損害者,得以更容易獲得賠償,並減輕受損害者請求損害賠償之舉證責任。 《人工智慧責任指令》透過引入兩個主要方式:(一)可推翻之推定(rebuttable presumptions):人工智慧責任指令透過「因果關係推定(presumption of causality)」來減輕受損害者之舉證責任(burden of proof)。受損害者(不論是個人、企業或組織)若能證明人工智慧系統因過失或不遵守法規要求之義務,致其受有損害(包括基本權利在內之生命、健康、財產或隱私等),並且該損害與人工智慧系統之表現具有因果關係,法院即可推定該過失或不遵守義務之行為造成受損害者之損害。相對的,人工智慧之供應商或開發商等也可提供相關證據證明其過失不可能造成損害,或該損害係由其他原因所致,以推翻該損害之推定。(二)證據揭露機制(disclosure of evidence mechanism):若受害者之損害涉及高風險人工智慧時,得要求自該供應商或開發商等處獲取證據之權利。受害者透過證據揭露機制能夠較容易地尋求法律賠償,並得以找出究責的對象。 歐盟執委會認為以安全為導向的《人工智慧法》,為人工智慧訂定橫向規則,旨在降低風險和防止損害,但仍需要《人工智慧責任指令》之責任規定,以確保損害風險出現時,相關賠償得以被實現。但歐盟執委會仍選擇了較小的干預手段,《人工智慧責任指令》針對過失之責任制度進行改革,並未採取舉證責任倒置(a reversal of the burden of proof)之作法,而是透過「可推翻之推定」,一方面減輕受損害者之舉證責任,使受損害者得對影響人工智慧系統並產生過失或侵害行為之人提出損害賠償;另一方面賦予人工智慧之供應商或開發商等有機會推翻前揭造成損害之推定,以避免人工智慧系統之供應商或開發商面臨更高的責任風險,可能阻礙人工智慧產品和服務創新。