在香港金融管理局(Hong Kong Monetary Authority, HKMA)於2016年9月推出金融科技監管沙盒(Fintech Supervisory Sandbox, FSS)滿一年後,於今年9月29日再公布2.0升級版。而香港保險業監管局(Insurance Authority, IA)同時發布保險科技沙盒(Insurtech Sandbox),證券及期貨事務監察委員會(Securities and Futures Commission, SFC)亦公告證監會監管沙盒(SFC Regulatory Sandbox),初步完備香港金融領域沙盒制度之建立。
於金融科技監管沙盒2.0版中,香港金融管理局為加強金融科技公司與HKMA連繫機制,將成立金融科技監管聊天室(Fintech Supervisory Chatroom),改變最初金融科技公司僅能透過銀行窗口與HKMA進行試驗商品相關聯繫,造成程序不便、資訊不流通等問題,2.0版後金融科技公司可透過HKMA隸屬之金融科技監管聊天室進行意見回饋。並且由於香港針對金融科技、保險、證券及期貨領域推出三種沙盒機制,故推出「一點通」之一站式便民服務,提供企業選擇沙盒並得以和各機關進行相互協調,此次改革將於年底作業完成。
而IA為促進保險科技發展,推出保險科技沙盒,對於保險公司計畫在香港推出的創新技術不確定是否符合香港法規,給予受授權保險公司在沙盒機制內進行沙盒試驗,在沙盒試驗中,主管機關得隨時對保險公司之風險控管做查核,並且消費者有隨時退出試驗並給予補償機制,IA亦可針對不符合之試驗計劃宣告中止。
另外,SFC開放合資格之企業提供沙盒試驗,所謂「合資格之企業」是指經由香港《證券及期貨條例》規範而設立之持照企業或新創公司,同時該公司必須使用創新科技並為投資者帶來更多優質產品服務,並受惠於香港金融服務業者。並且為保護投資者權益,除申請公司應有給予投資者退出機制與提供賠償方式外,並應揭露潛在風險。若最後申請公司證明其試驗客體可靠且符合目的,可向SFC申請走出沙盒機制,並對外營運。
世界衛生組織(World Health Organization, WHO)於2021年6月底公布「人工智慧於健康領域之倫理與治理」(Ethics and governance of artificial intelligence for health)指引。目前人工智慧於在改善診斷、治療、健康研究、藥物開發及公共衛生等健康領域皆有廣泛之應用與前景,而該指引首先指出人工智慧應用於健康領域中最相關之法律與政策外,並強調相關應用皆須以「倫理」及「人權」作為相關技術設計、部署與使用之核心,最後則提出人工智慧應用於健康領域之六大關鍵原則: 一、保護人類自主性(autonomy):本指引認為人類仍應該掌有關於醫療保健系統之所有決定權,而人工智慧只是輔助功能,無論是醫療服務提供者或患者皆應在知情之狀態下作決定或同意。 二、促進人類福祉、安全與公共利益:人工智慧不應該傷害人類,因此須滿足相關之事前監管要求,同時確保其安全性、準確性及有效性,且其不會對患者或特定群體造成不利影響。 三、確保透明度、可解釋性與可理解性(intelligibility):開發人員、用戶及監管機構應可理解人工智慧所作出之決定,故須透過記錄與資訊揭露提高其透明度。 四、確立責任歸屬(responsibility)與問責制(accountability):人工智慧在醫學中所涉及之內部責任歸屬相當複雜,關於製造商、臨床醫師及病患間相關之問責機制之設計將會成為各國之挑戰,故須存在有效之機制來確保問責,也應避免責任分散之問題產生。 五、確保包容性(inclusiveness)與衡平性(equity):應鼓勵應用於健康領域之人工智慧能被廣泛且適當地使用,無論年齡、性別、收入及其他特徵而有差別待遇,且應避免偏見之產生。 六、促進具適應性(responsive)及可持續性之人工智慧:人工智慧應符合設計者、開發者及用戶之需求與期待,且能充分具適應性之回應且符合使用環境中之要求。
法國國家資訊自由委員會將推出符合GDPR的人工智慧操作指引(AI how-to sheets)法國國家資訊自由委員會(CNIL)於2023年10月16日至11月16日進行「人工智慧操作指引」(AI how-to sheets)(下稱本指引)公眾諮詢,並宣布將於2024年初提出正式版本。本指引主要說明AI系統資料集建立與利用符合歐盟一般資料保護規則(GDPR)之作法,以期在支持人工智慧專業人士創新之外,同時能兼顧民眾權利。 人工智慧操作指引主要內容整理如下: 1.指引涵蓋範圍:本指引限於AI開發階段(development phase),不包含應用階段(deployment phase)。開發階段進一步可分為三階段,包括AI系統設計、資料蒐集與資料庫建立,以及AI系統學習與訓練。 2.法律適用:當資料處理過程中包含個人資料時,人工智慧系統的開發與設計都必須確定其適用的法律規範為何。 3.定義利用目的:CNIL強調蒐集及處理個資時應該遵守「明確」、「合法」、「易懂」之原則,由於資料應該是基於特定且合法的目的而蒐集的,因此不得以與最初目的不相符的方式進一步處理資料。故明確界定人工智慧系統之目的為何,方能決定GDPR與其他原則之適用。 4.系統提供者的身分:可能會是GDPR中的為資料控管者(data controller)、共同控管者(joint controller)以及資料處理者(data processor)。 5.確保資料處理之合法性:建立AI系統的組織使用的資料集若包含個人資料,必須確保資料分析與處理操作符合GDPR規定。 6.必要時進行資料保護影響評估(DIPA)。 7.在系統設計時將資料保護納入考慮:包含建立系統主要目標、技術架構、識別資料來源與嚴格篩選使用…等等。 8.資料蒐集與管理時皆須考慮資料保護:具體作法包含資料蒐集須符合GDPR、糾正錯誤、解決缺失值、整合個資保護措施、監控所蒐集之資料、蒐集之目的,以及設定明確的資料保留期限,實施適當的技術和組織措施以確保資料安全等。 對於AI相關產業從事人員來說,更新AI相關規範知識非常重要,CNIL的人工智慧操作指引將可協助增強AI產業對於個資處理複雜法律問題的理解。
保護、分級與言論(下) FDA發佈「拒絕接受510(K)審查申請之政策」指導文件草案醫療器材在美國上市所需依循的途徑,為申請510(k)審查或上市前審查(Premarket Approval, PMA)。順序上第一步,必須在90天前向美國食品藥物管理局(U.S. Food and Drug Administration, FDA)提出「上市前通知」(Premarket Notification, PMN)申請。所謂的510(K),係指美國《食品、藥物及化妝品法》(Federal Food, Drug, and Cosmetic Act, FD&C Act)第510節之規定,在申請的流程中,FDA會審查廠商所提出的佐證,是否具備與已上市的相同器材一樣之「實質相等性」(Substantial Equivalence),若不具備「實質相等性」,即必須進入PMA申請程序。 FDA指出過往機關接受許多不適當的501(K)審查申請,而必須要求這些不適當的申請廠商進一步補充文件,以進行實質審查。FDA指出這樣的程序,進行過度頻繁的審查,而浪費不少寶貴的資源及人力。FDA於2012年8月10發佈「拒絕接受510(K)審查申請之政策」指導文件草案。作為改善與加強501(K)申請流程之效率與有效性。新的指導文件草案之改善目標,係要求廠商必須提出傳統(Traditional)、特殊(Special)、簡略(Abbreviated)三種不同的申請所需之審查文件,FDA會先進行審查文件是否具備的預先審核,始進行實質審查。廠商必須依照指導文件草案內含的核對表(Checklist)所規定必須提交之審查文件,FDA有15天的時間回應廠商是否完成繳交,或要求廠商在新的15天之內補件,而承認 (Acceptance)形式審查完備,始進行實質審查。廠商亦可針對缺繳之文件,說明不提供之理由,並提出相關證明。指導文件草案提供以下幾個準則,提供審查機關審視核對表完備與否: 該產品是否為器材; 該項申請之對象是否正確; 是否為適當合法510(k)申請; 是否有相同的器材經PMA程序核准上市; 所提出的臨床數據,申請者是否受限於「申請規範政策」(Application Integrity Policy, AIP)。 FDA透過這樣預先審查之方式,檢視廠商所提出之申請,是否符合形式的要件,而決定是否進行實質審查,以避免浪費行政機關的資源與人力進行不適當的審查,希冀改善FDA目前501(k)審查申請制度之效率與有效性。