英國通訊傳播管理局(The Office of Communications, Ofcom)於2020年8月發布「開放通訊:使人們能夠透過創新服務共享資料」(Open Communications: Enabling people to share data with innovative services),針對開放通訊的設計原理提出七點建議:
除此之外,對於應開放何種資料則須循序漸進。除了增加對第三方客戶資料近用權限之外,首先,應針對開放對資料提供者風險低,但對潛在用戶有較高利益的資料,例如:不包含個人訊息的資料,從而降低匿名化過程中所產生之風險;第二,開放低風險的地理空間資料(geospatial data),目的在於改善該地區的整體地理空間資料基礎架構。最後才是開放有關各種通訊產品中的其他資料,以促進消費者的選擇和保護。
綜上所述,考慮到開放通訊之可行性,需進一步與其他資料可攜性計劃的主要代表進行會談(如銀行業者),尋求各行業主要服務提供商的支持。再者,考慮是否訂定相關法律以及如何進行監管。第三,應標準化客戶資料,以及確保資料移動之安全性及用戶控制權限,最後則是降低資料開放之成本,以達成開放通訊所帶來之效益。
全美各州醫療委員會聯合會(The Federation of State Medical Boards, FSMB)於2024年4月發布「引導人工智慧以負責任與符合倫理方式融入臨床實務」(Navigating the Responsible and Ethical Incorporation of Artificial Intelligence into Clinical Practice)指引,明確概述醫師於利用AI協助提供照護時可採取之步驟,以履行其倫理與專業職責,期能藉此降低對患者造成傷害之風險;本指引之特色在於,其要求醫師為AI之利用結果負最終之責任。 FSMB 向各州醫療委員會與其他利害關係人所提供之原則與建議如下,以支持對包含AI之臨床照護進行負責任與符合倫理之監管: (1)透明度與揭露(Transparency and Disclosure): 應要求維持於醫療照護領域使用AI之透明度;各州醫療委員會應制定明確之指導方針,向患者揭露AI之使用情況,其有助於患者與醫師之理解,但不會造成不必要之行政負擔;FSMB 應制定文件,詳細說明最常用之AI工具之功能與局限性,以協助醫療委員會發揮監管者之角色,並應制定常見問題與最佳實務文件,作為提供照護時利用AI方面關於透明度之資源。 (2)教育與理解(Education and Understanding): FSMB及其於醫學教育界之合作夥伴,應為醫師、醫療委員會與患者,確認有關醫療照護中AI之結構化教育資源,該等資源應包括協助瞭解AI如何運作、其優點、潛在風險以及對患者照護之影響。 (3)負責任之使用與問責(Responsible Use and Accountability): 開發人員應協助醫師瞭解何時、以及如何於患者之照護中利用AI工具;選擇AI工具支援臨床決策之醫院系統、保險公司或其他機構應向醫師提供有關AI工具之教育、存取各工具之性能報告,並應設計一個定期檢視工具功效的流程;AI工具應以得使各州醫療委員會能稽核與理解之方式設計,以便適當評估依賴工具輸出結果之醫師是否偏離照護標準(standard of care);FSMB 應支持各州醫療委員會針對臨床醫師如何負責任、可問責地使用AI之解釋。 (4)公平性與近用(Equity and Access): 應努力確保所有患者皆能公平地近用AI帶來之好處;FSMB與各州醫療委員會致力於以下原則:醫療人員所提供之照護是公平的、且不受基於種族、民族或其他形式歧視之偏見影響;FSMB應與其他利害關係人一起理解並解決演算法偏差問題。 (5)隱私與資料安全(Privacy and Data Security): AI工具之開發者必須實施嚴格之保護措施,以保護AI開發與評估時所利用之患者資料,通常情況下應告知患者資料如何被利用,且FSMB應與行業利害相關人一起制定AI系統使用與散布患者資料之政策,包括針對AI開發或評估中使用之患者資料之最低資料保護措施。 (6)監督與監管(Oversight and Regulation): 各州醫療委員會必須保留對於提供醫療服務時,不當應用AI工具之醫生進行紀律處分之權力,其包括問責議題之考慮,特別是當AI系統變得更加自主時;各州醫療委員會應審查其管轄範圍內如何對「醫療行為」(practice of medicine)進行法律定義,以確保對提供醫療照護、人力或其他方面進行持續之監管監督。 (7)法律法規之持續審查與調整(Continual Review and Adaptation of Law and Regulations): 各州醫療委員會應在FSMB之支持下,隨著AI之不斷發展,持續檢視與更新與AI相關之指引與法規;政策制定者應考慮AI對基本法律原則的影響,例如醫療行為之定義以及AI對企業醫學實務之影響;FSMB 應建立一個專門團隊,持續檢視與調整AI指引與法規。 本指引指出,AI工具通常無能力取代醫師之專業判斷、道德責任或對州醫療委員會之責任,醫療行為中之關鍵職業責任始終為確保診斷、臨床決策與建議不存在偏差。與用於診斷或治療疾病之任何其他工具或鑑別方法相同,醫療專業人員有責任確保基於證據結論之準確性與真實性,因此於將AI系統用於患者照護前,醫師應以合理努力識別與解決偏差(如虛假或不準確之資訊等)。
何謂瑞士新創事業計畫(CTI Startup)?新創事業計畫(CTI Startup)於1996年推出,為創業家提供創業輔導服務。該計畫挑選有創新商品想法的年輕企業家,藉由在創業過程中,從旁給予實質指導的方式使創新想法可以落實,成立有競爭力的新創企業。為使補助與輔導資源能夠充分的發揮作用,入選新創事業計畫有非常嚴格的程序,大致可分為四個階段,第一階段CTI會針對申請團隊的想法是否創新、技術上是否可行為標準對商業構想進行初步的篩選,並從旁協助申請者註冊新創事業計畫。完成註冊後,將進入第二階段進行更為具體的專業審查,評估的標準包主要包括技術、市場、可行性與管理團隊的能力等層面。通過審查後,即進入專業指導階段,每一個團隊將被授予一位專業的「創業導師」,在團隊創業的過程中,協助其進一步發展與優化企業的戰略、流程與商業模式,並針對新創企業遇到的具體經營問題給予指導與建議。專業指導階段旨在輔導新創事業取得「CTI新創事業標章」(CTI Startup Label),新創事業標章的審查相當嚴格。
18F與加州政府共同打造採購新流程美國的數位服務推動小組18F(Digital service delivery,18F),因辦公室位於華盛頓特區F街18號而得名。2014年3月由總務署(General Service Administration,GSA)成立,透過業界與政府合作模式,幫助政府機關改善流程及增進效率,其所輔導的專案計畫將實際轉變政府機關提供數位服務及科技產品之運作模式,以達跨部會、機關之整合,並使對公眾的數位服務更便於使用。 18F為幫助美國各機關建造、購買及分享現代數位服務以提升政府的使用者經驗,提供了五項服務:(一)就已存的數位規格(digital component)打造訂製化產品(custom products);(二)以創新方式購買科技,使各政府能夠獲得更快、更好及產生更好結果的IT服務。詳細服務內容有代寫委外服務建議書(Request For Proposal,RFP)、開發市場利用現代技術購買IT服務、購買開放源代碼(open source code)以提升專案計畫;(三)替政府建造一安全、可擴展的工具與平台,其能更加符合需求並能夠持續為改善以達需求;(四)協助成為數位化組織,不只是增加組織內部數位化能力,更要形成數位習慣並最終促使組織文化改變;(五)透過討論會、設計工作室、指南及文件工作平台,提供及分享18F實際運用的相關現代數位化服務技術,使政府機關能自行複製及使用。 近期知名成果案例發生於加州。在加州,每一年的孩童福利服務案件管理系統超過2萬名社工利用為追蹤管理超過50萬件虐待及忽視兒童案件,若使用過時系統產生風險將無法估計,故加州政府、美國衛生與人群服務部(Department of Health and Human Services,DHHS)即利用了前述相關服務,與18F共同重新設計該系統的採購流程。從2015年11月至2016年10月,合作建立新系統不到1年的時間,導入了契約文件之簡化、模組化(modular)契約之合併、敏捷性開發(agile development)、使用者中心之設計及開放源(open source)之實踐。 首先,代寫委外服務建議書,18F於其中展示如何將專案計畫為模組化,亦即別於過往採購的傳統模式,非尋找單一開發商去建置整個已預設需求的系統,透過分離的方式,找尋不同開發商以更符合實際需求,亦能避免時間金錢的浪費,降低遲約或違約之風險。再者,聚集可能符合資格的供應商,邀請眾供應商建造以開放源代碼(open source code)方式的原型(prototype)。透過此一過程的激盪,18F從中協助評估所提出的原型、技術等,以了解供應商如何提出及是否符合使用者中心的設計。同時也能減少政府與供應商雙方的招標時間及行政成本。最後,為使加州政府機關能自行複製及使用相關現代數位化服務技術,18F示範敏捷軟體開發(agile software development)專案計畫。從中加州政府不僅瞭解如何為風險評估,且思考相關技術部門於專案計畫中的角色定位。 面臨現代化數位服務,在美國,聯邦與州政府都面臨極大挑戰。18F介入發展新模式,更能達實際需求,亦為內化之協助,利於政府自行發展其他數位服務。18F與加州政府合作之案例,或許能為國家發展數位服務運作之借鏡。
歐盟議會發布《可信賴人工智慧倫理準則》2019年4月9日,歐盟議會發布《可信賴人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI)。此次內容大致延續歐盟人工智慧高階專家小組(High-level Expert Group on Artificial Intelligence)於2018年12月18日發布的《可信賴人工智慧倫理準則草案》(Draft Ethics Guidelines for Trustworthy Artificial Intelligence)之內容,要求人工智慧須遵守行善(do good)、不作惡(do no harm)、保護人類(preserve human Agency)、公平(be fair)與公開透明(operate transparency)等倫理原則;並在4月9日發布的正式內容中更加具體描述可信賴的人工智慧的具體要件,共計七面向概述如下: 人類自主性和監控(Human agency and oversight):AI係為強化人類能力而存在,使人類使用者能夠做出更明智的決策並培養自身的基礎能力。同時,AI應有相關監控機制以確保AI系統不會侵害人類自主性或是引發其他負面效果。本準則建議,監控機制應可透過人機混合(一種整合人工智慧與人類協作的系統,例如human-in-the-loop, human-on-the-loop, and human-in-command)的操作方法來實現。 技術穩健性和安全性(Technical Robustness and safety):為防止損害擴張與確保損害最小化,AI系統除需具備準確性、可靠性和可重複性等技術特質,同時也需在出現問題前訂定完善的備援計劃。 隱私和資料治理(Privacy and data governance):除了確保充分尊重隱私和資料保護之外,還必須確保適當的資料治理機制,同時考慮到資料的品質和完整性,並確保合法近用資料為可行。 透明度(Transparency):資料、系統和AI的商業模型應該是透明的。可追溯性機制(Traceability mechanisms)有助於實現這一目標。此外,應以利害關係人能夠理解的方式解釋AI系統的邏輯及運作模式。人類參與者和使用者需要意識到他們正在與AI系統進行互動,並且必須了解AI系統的功能和限制。 保持多樣性、不歧視和公平(Diversity, non-discrimination and fairness):AI不公平的偏見可能會加劇對弱勢群體的偏見和歧視,導致邊緣化現象更為嚴重。為避免此種情況,AI系統應該設計為所有人皆可以近用,達成使用者多樣性的目標。 社會和環境福祉(Societal and environmental well-being):AI應該使包含我們的後代在內的所有人類受益。因此AI必須兼顧永續發展、環境友善,並能提供正向的社會影響。 問責制(Accountability):應建立機制以妥當處理AI所導致的結果的責任歸屬,演算法的可審計性(Auditability)為關鍵。此外,應確保補救措施為無障礙設計。