日本內閣為實現「Super City」的構想,於2020年2月4日通過《國家戰略特別區域法》部分條文修正案並提交國會審議,擬透過自駕車、無人機物流、遠距醫療等結合社區總體營造,以因應高齡化社會和解決人力不足等課題為目標。
「Super City」係指充分活用第四次工業革命中,人工智慧及大數據等各項最先進技術,領先實現未來生活方式的「完全的未來都市」。不僅在複數領域的智慧化措施中導入管制革新,同時也於生活中實踐,旨在解決社會中的各項課題。「Super City」可說是較早推動的「Smart City」進化版。Smart City具體推動範圍侷限於能源、交通等個別領域的尖端技術實證,而Super City則是以未來都市的整體創建為目標。即Super City的推動至少會同時涵蓋5個領域以上的生活中各項智慧科技,如物流、支付、行政、醫護、教育、環境、防災等;不僅有技術上的實證,更看重先行於未來社會的生活中實現;最重要的是會從居民的角度,而非從技術開發端、供給端,來追求理想的未來社會。
不過現行法規對於Super City的實現是有所侷限的,目前日本雖可依《國家戰略特別區域法》,由國家指定特定地區並實施管制鬆綁、制度改革等特例措施,但在推動管制革新以執行各種近未來技術之實證方面,尚需個別與相關主管機關協商,因此經常耗費數月至數年的時間成本。本次修法將強化各相關主管機關的合作,將制定基本方針明定具體的合作程序,而城市間的合作強化則將會整備開放API(Open Application Programming. Interface)規則及法規;另外Super City的實現需要蒐集、整理各領域之資料,因此擬將「資料協作基盤整備事業」列為法定計畫,且事業實施主體可要求國家及地方政府提供其所擁有的資料;由於Super City的推動將會同時涵蓋多個不同領域,為使各領域的管制革新具整體性且能同時實現,修正案中也規範Super City事業計畫的認定程序。
本文為「經濟部產業技術司科技專案成果」
英格蘭、蘇格蘭、威爾斯政府,以及北愛爾蘭農業、環境和鄉村事務部於2024年5月23日共同提出「溫室氣體移除納入碳交易框架」(Integrating Greenhouse Gas Removals in the UK Emissions Trading Scheme)聯合諮詢文件,擬將「溫室氣體移除」(Greenhouse Gas Removals, GGRs)技術納入現行英國碳排放交易體系。GGRs係指主動將大氣中的溫室氣體移除之方法,又稱「二氧化碳移除」(Carbon Dioxide Removal, CDR)、「負碳技術」(Negative Emission Technologies, NETs),此類技術被認為能協助「難減排產業」減少排放。 此次意見徵集主要針對以下四大面向: 1.基本原則:將GGRs整合進UK ETS,須以維持減碳誘因、確保市場誠信、創造長期有效率的碳權交易市場、環境友善、具備可操作性、最小干預性、未來靈活性保障、考量財務影響等原則為基本前提。 2.總量管制:UK ETS於納入GGRs後,預計仍將維持當前總量上限,以避免實質上增加企業的排放容許量。 3.配額發給:GGRs能獲得的配額,擬採取「事後發給」的方式,於移除完成並經過驗證後,才發給配額,以維持交易市場的可信性。 4.市場整合:英國目前暫不考慮建立獨立的溫室氣體移除交易市場,擬將GGRs完全整合進既有的UK ETS中,並透過總量及需求控制或免費配額等措施調節市場供需,穩定並促進市場發展。 英國政府相信,透過將GGRs納入現行UK ETS中,可以增加企業對於碳移除之需求,提高負碳技術的投資誘因,進而持續對於淨零排放的目標有所貢獻。
德國聯邦資訊技術,電信和新媒體協會針對AI及自動決策技術利用提出建議指南德國聯邦資訊技術,電信和新媒體協會於2018年2月6日在更安全的網路研討會中針對利用人工智慧及自動決策技術利用提出建議指南(Empfehlungen für den verantwortlichen Einsatz von KI und automatisierten Entscheidungen),旨在提升企業數位化與社會責任,並提升消費者權益保護。 本份指南提出六項建議: 促進企業內部及外部訂定相關準則 例如規定公司在利用演算法和AI時,必須將影響評估列入開發流程,並列為公司應遵守的道德倫理守則,以確保開發的產品或服務符合公平及道德。 提升透明度 使用者如有興趣了解演算法及其含義,企業應協助調查並了解使用者想獲知的訊息,並透過相關訊息管道提升產品及服務透明度。因此,企業應努力使演算法及其操作和含義能夠被使用者理解。此亦涉及即將實施的歐盟一般資料保護規則中的透明度義務。在機器學習或深度學習情況下,可能會增加理解性和可追溯性難度,但有助於分析流程並使其更接近人類理解的方法在科學和商業實踐中,應特別關注並進一步討論。另外,透過教育及使用說明協助及控制功能,教導消費者係建立雙方信任的重要手段。企業應在第一線中說明產品或服務中使用的手段(演算法,機器學習,AI)。除了解釋使用那些技術來改進產品和服務外,應一併解釋如何從技術控制過程中獲得相關知識以及提供那些後援支持。另外,例如透過幫助頁面,儀表板或部落格,解釋發生什麼以及如何做出某些影響深遠的自動化決策,使用戶更了解有關使用自動決策相關訊息。因此建議企業採取強制有效以建立信任的措施,使用戶理解是否及如何使用相關演算法,此可能包括使用自動化決策,使用特定資料組和使用技術的目的,亦即使用戶對演算法,機器學習或AI支持的決策有基本的了解。 為全體利益使用相關技術 人工智慧等新技術之重要性不應被低估,目前在生活和工業等眾多領域皆有廣泛應用。對於個人和集體而言,將可帶來巨大的利益,因此應該充分利用。例如,人工智慧可降低語言障礙,幫助行動不便的人可更加獨立自主生活,改善醫療診斷,提升能源供應效率,甚至是交通規劃和搜索停車位,都只是人工智慧偉大且已被使用的案例。為促進技術發展,應公平地利用其優勢並預留商業應用模式的空間,同時充分解決涉及的具體風險。產業特定的解決方案十分重要,但應兼顧受影響者的利益,並與廣大公眾利益找出妥協平衡點,且應排除不適當的歧視。建議在使用決策支持技術時,應事先檢查相關後果並與其利益比較。例如,可以在資料保護影響評估的框架進行。作為道德準則的一部分,必須確保演算法盡可能量準確地預測結果。 開發安全的資料基礎 資料係人工智慧支援決策的基礎。與人為決策者相同,資料不完整或錯誤,將導致做出錯誤的決定。因此決策系統的可靠性仍取決資料的準確性。但資料質量和資料來源始終不能追溯到源頭,如果可能的話,只有匯總或非個人資料可用於分析或分類用戶群組。因此,確切細節不可被使用或揭露。因此建議企業應考慮要使用的資料、資料的類別和在使用AI系統前仔細檢查資料使用情況,特別是在自我學習系統中資料引入的標準,並根據錯誤來源進行檢查,且儘可能全面記錄,針對個人資料部分更應謹慎處理。 解決機器偏差問題 應重視並解決所謂機器偏差和演算法選擇和模型建立領域的相關問題。解釋演算法,機器學習或AI在基層資料選擇和資料庫時所產生決策偏見相當重要,在開發預期用途的演算法時必須納入考量,對員工應針對道德影響進行培訓,並使用代表性紀錄來創建可以識別和最小化偏差的方法。企業並應該提高員工的敏感度並培訓如何解決並減少機器偏見問題,並特別注意資料饋送,以及開發用於檢測模式的內、外部測試流程。 適合個別領域的具體措施和文件 在特別需要負責的決策過程,例如在車輛的自動控制或醫療診斷中,應設計成由責任主體保留最終的決策權力,直到AI的控制品質已達到或高於所有參與者水平。對類人工智慧的信任,並非透過對方法的無條件追踪來實現,而是經過仔細測試,學習和記錄來實現
歐洲藥品管理局更新利益衝突規範歐洲藥品管理局(The European Medicines Agency,EMA)於3月底至6月初陸續發布四份利益衝突範。包括「處理管理董事會利益衝突政策方針」(European Medicines Agency Policy on the Handling of Conflicts of Interests of the Management Board),將董事會自過去的利益衝突獨立出來單獨規範;並針對違反利益聲明揭露訂立「EMA科學委員會和專家違反利益衝突信賴程序」(European Medicines Agency Breach of Trust Procedure on Conflicts of Interests for Scientific Committee Members and Experts),和「EMA管理董事會違反利益衝突信賴程序」(European Medicines Agency Breach of Trust Procedure on Conflicts of Interests for Management Board Members);以及修定「處理管理董事會、科學委員會成員和專家利益衝突政策方針」(European Medicines Agency Breach of Trust Procedure on Conflicts of Interests for Scientific Committee Members and Experts)。 針對專家和管理董事會所制定的處理利益衝突規範,主要目的是確保兩者在參與EMA的活動時,不會發生與醫藥業者相關聯的利益衝突,影響EMA公正性。觀察上述規範,可以發現EMA對於專家和管理董事會兩者的規範原則相當一致,皆聚焦於增進利益衝突處理過程的強健性(robustness)、有效性(efficiency)和透明性(transparency)。分別規範的原因在於兩者功能上的區別,分述如下: 1. 專家規範層面,有鑒於在先進醫藥領域中的專家有限,缺少可替代性,因此規範目的在於兼顧公正性與專業之間的平衡; 2. 管理董事會層面,由於其主要任務為監管和決策,規範上區別成員所參與活動的程度和範圍做更為細部的規範,與專家不同,並非有利益衝突就必須迴避。 為進一步加強EMA處理利益衝突的強健性,EMA科學委員會和專家,以及管理董事會違反利益衝突信賴程序的主要規範內容為專家和管理董事會成員作出不實利益聲明時,EMA的處理程序。可區分為調查、聽證與修正三個階段,分述如下: 1.調查階段,首先調查系爭當事人是否為不實之利益聲明後,評估是否啟動違反利益衝突信賴程序; 2.聽證階段,召開聽證會,聽證系爭當事人陳述觀點。倘若確定違反利益衝突信賴,系爭當事人即自EMA除名; 3.修正階段,EMA將審查系爭當事人曾經參與科學審查案件的公正性,並評估是否進行補救措施。 雖然EMA對於專家是否確實聲明利益缺少強制力,然而仍能透過新的利益衝突機制設計,看出EMA對完善利益衝突規範的企圖,值得近來正在修訂利益衝突機制的我國學習。
美國情報體系發布「情報體系運用人工智慧倫理架構」美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。