美國食品和藥物管理局(FDA)於2018年9月6日發布關於「制定醫療器械在上市前核准(PMA)、低風險創新器材(De Novo)分類和人道用途器材免除(HDE)的利益-風險決策之不確定性考量指引草案。」
為滿足FDA促進公共健康的使命,醫療器械上市前核准(PMA)通常涉及較高的不確定性,因此本指引是適當的解決利益風險的判定以支持FDA的決策。包含考量患病群願意接受醫療器械帶來的益處及風險之更多不確定性,特別是沒有可接受的替代治療方案時。
根據指引草案,FDA依據具體情況,判定其利益-風險的適當程度之不確定性,包括:
(1) 醫療器械可能帶來好處程度。
(2) 醫療器械存在的風險程度。
(3) 關於替代治療或診斷的利益-風險之不確定程度。
(4) 如果可能,需瞭解患者對醫療器械可能帶來的益處和風險之不確定性觀點。
(5) 公共衛生需求的程度。
(6) 依據臨床證據可支持上市前之可行性。
(7) 能夠減少或解決醫療器械的上市後利益-風險留下之不確定性。
(8) 上市後緩解措施的有效性。
(9) 建立決策類型。(如上市前核准(PMA)和人道用途器材免除(HDE)的核准標準不同。)
(10) 對於早期患者訪問醫療器械的可能帶來的益處。
本指引草案中,FDA基於考量有關醫療器械臨床/非臨床訊息之利益風險,需與FDA的規範、監管機關和要求要有一致性。
世界衛生組織(World Health Organization, WHO)於2021年6月底公布「人工智慧於健康領域之倫理與治理」(Ethics and governance of artificial intelligence for health)指引。目前人工智慧於在改善診斷、治療、健康研究、藥物開發及公共衛生等健康領域皆有廣泛之應用與前景,而該指引首先指出人工智慧應用於健康領域中最相關之法律與政策外,並強調相關應用皆須以「倫理」及「人權」作為相關技術設計、部署與使用之核心,最後則提出人工智慧應用於健康領域之六大關鍵原則: 一、保護人類自主性(autonomy):本指引認為人類仍應該掌有關於醫療保健系統之所有決定權,而人工智慧只是輔助功能,無論是醫療服務提供者或患者皆應在知情之狀態下作決定或同意。 二、促進人類福祉、安全與公共利益:人工智慧不應該傷害人類,因此須滿足相關之事前監管要求,同時確保其安全性、準確性及有效性,且其不會對患者或特定群體造成不利影響。 三、確保透明度、可解釋性與可理解性(intelligibility):開發人員、用戶及監管機構應可理解人工智慧所作出之決定,故須透過記錄與資訊揭露提高其透明度。 四、確立責任歸屬(responsibility)與問責制(accountability):人工智慧在醫學中所涉及之內部責任歸屬相當複雜,關於製造商、臨床醫師及病患間相關之問責機制之設計將會成為各國之挑戰,故須存在有效之機制來確保問責,也應避免責任分散之問題產生。 五、確保包容性(inclusiveness)與衡平性(equity):應鼓勵應用於健康領域之人工智慧能被廣泛且適當地使用,無論年齡、性別、收入及其他特徵而有差別待遇,且應避免偏見之產生。 六、促進具適應性(responsive)及可持續性之人工智慧:人工智慧應符合設計者、開發者及用戶之需求與期待,且能充分具適應性之回應且符合使用環境中之要求。
英國政府公布物聯網設備安全設計報告,提出製造商應遵循之設計準則草案英國數位、文化、媒體暨體育部於2018年3月8日公布「安全設計(Secure by Design)」報告,此報告目的在於使IoT設備製造商於製程中即採取具有安全性之設計,以確保用戶之資訊安全。 此報告中包含了一份經英國國家網路安全中心(National Cyber Security Centre, NCSC)、製造商及零售商共同討論後,提出之可供製造商遵循之行為準則(Code of Practice)草案。 此行為準則中指出,除設備製造商之外,其他包含IoT服務提供者、行動電話軟體開發者與零售商等也是重要的利益相關人。 其中提出了13項行為準則:1. 不應設定預設密碼(default password);2. 應實施漏洞揭露政策;3. 持續更新軟體;4. 確保機密與具有安全敏感性的資訊受到保護;5. 確保通訊之安全;6. 最小化可能受到攻擊的區域;7. 確保軟體的可信性;8. 確保個資受到妥善保障;9. 確保系統對於停電事故具有可回復性;10. 監督自動傳輸之數據;11. 使用戶以簡易的方式刪除個人資訊;12. 使設備可被容易的安裝與維護;13. 應驗證輸入之數據。 此草案將接受公眾意見,並於未來進一步檢視是否應立相關法律。
歐洲議會批准提升線上平台商業行為公平性之新規則有鑑於線上市集(如Google Play)、訂房網站等線上平台提供了迅速進入國際消費市場之機會, 因此成為了數百萬企業提供服務的首選之地。然而,存在於「平台對商家」(platform–to-business, P2B)之間的某些結構性問題,卻導致了企業之間的不公平交易行為。是以,歐洲議會、歐盟理事會與歐盟執委會於2019年2月14日就「提升線上中介服務商業用戶的公平性與透明性規則」(Regulation on promoting fairness and transparency for business users of online intermediation services),達成政治協議,歐洲議會並已於2019年4月17日批准。 該規則為全世界第一個針對線上平台與商業用戶訂定之規則,係數位單一市場策略(Digital Single Market Strategy)的一部分,預計適用於整個線上平台經濟,亦即,目前在歐盟境內營運的7000個線上平台或市集都包含在內,無論是科技巨擘,抑或是規模雖小但對商業用戶具重要議價能力的新創公司(small start-ups)皆屬之。此外,新規則中涉及搜尋結果排序透明度之部分,亦將適用於搜尋引擎。 其中,由於數以百萬計的中小企業是構成歐盟經濟的重要支柱,是以此番訂定的新規則,係專門針對此些較無議價能力的中小企業而設計。中小企業可自新規則中獲益之項目主要有四: 1. 禁止特定不公平行為 (1) 不得突然且未附理由的暫停帳號使用權 線上平台不得在無明確理由或未提供申訴可能性之情況下,暫停或終止賣家帳戶。 (2) 條款與條件需簡明易懂且變更時須提前通知 條款與條件需易於取得且以簡明易懂之文字書寫,當條款與條件有所變更時,線上平台需在15天之前通知,使賣家得即時調整業務,並可視業務調整複雜度適時延長通知期間。 2. 提升線上平台透明度 (1) 排序透明化 市集與搜尋引擎需揭露其排序商品或服務的主要參數,以利賣家進行適度優化。 (2) 強制揭露線上平台的部分商業行為 由於部分線上平台除了提供市集促進交易進行,更在該市集中身兼賣家之角色,是以,為維護公平競爭的環境,新規則強制此些線上平台全面揭露任何可能給予自家產品的優勢。此外,該等線上平台還需揭露所蒐集之資料及使用方式,尤其是與其他商業夥伴共享之資料。當涉及個人資料時,則有一般資料保護規則(General Data Protection Regulation, GDPR)之適用。 3. 增設爭端解決機制 (1) 建立投訴處理系統 線上平台應建立內部投訴處理系統以對商業用戶提供適當協助。 (2) 設置調解程序 線上平台應提供調解之協助,以助賣家在法庭外解決爭議,有效節省時間與金錢。 4. 規則之實施 商業公會能對違反規則之線上平台提起告訴,以降低賣家對平台報復行為的恐懼,並降低個別賣家的訴訟成本。 在歐洲議會批准後,一旦歐盟理事會同意,新規則將在公布後12個月後正式施行,且為了確保新規則與時俱進,歐盟將在適用後的18個月內進行檢視,並設立專門的線上平台觀測站(Online Platform Observatory),以監控市場的變化,並確保新規則有效施行。
新加坡網路安全局發布人工智慧系統安全指南,以降低AI系統潛在風險新加坡網路安全局(Cyber Security Agency of Singapore, CSA)於2024年10月15日發布人工智慧系統安全指南(Guidelines on Securing AI Systems),旨在強化AI系統安全,協助組織以安全之方式運用AI,降低潛在風險。 該指南將AI系統生命週期分成五個關鍵階段,分別針對各階段的安全風險,提出相關防範措施: (1)規劃與設計:提高AI安全風險認知能力,進行安全風險評估。 (2)開發:提升訓練資料、模型、應用程式介面與軟體庫之供應安全,確保供應商遵守安全政策與國際標準或進行風險管理;並辨識、追蹤及保護AI相關資產(例如模型、資料、輸入指令),以確保AI開發環境安全。 (3)部署:適用標準安全措施(例如存取控制、日誌記錄),並建立事件管理程序。 (4)運作與維護:持續監控AI系統的輸入和輸出,偵測異常與潛在攻擊,並建立漏洞揭露流程。 (5)壽命終期:應根據相關行業標準或法規,對資料與模型進行適當之處理、銷毀,防止未經授權之存取。 CSA期待該指南發布後,將有助於預防供應鏈攻擊(supply chain attacks)、對抗式機器學習攻擊(Adversarial Machine Learning attacks)等安全風險,確保AI系統的整體安全與穩定運行。