英國藥物及保健產品管理局(Medicines and Healthcare Products Regulatory Agency, MHRA)於2021年9月16日展開期待已久的「英國醫療器材監管的未來」公眾意見徵詢(Consultation on the Future of Medical Devices Regulation in the United Kingdom),並公布「人工智慧軟體醫材改革計畫」(Software and AI as a Medical Device Change Programme)。英國欲從醫療器材上市前核准至其壽命結束進行監管改革,徹底改變一般醫療器材與人工智慧軟體醫療器材之監管方式。意見徵詢已於2021年11月25日結束,而該修正案預計於2023年7月生效,與英國針對醫療器材停止使用歐盟CE(Conformité Européenne, 歐洲合格認證)標誌並要求採用英國UKCA(UK Conformity Assessed, 英國合格評定)標誌的日期一致。
人工智慧軟體醫材改革計畫則包含十一個工作項目(work package,下稱WP),WP1與WP2分別為監管資格與監管分類,皆涉及監管範圍之劃定;WP3與WP4分別涉及軟體醫材上市前與上市後,如何確保其安全性與有效性的監管之研究;WP5針對軟體醫材之網路安全進行規範;WP6與WP7涉及加速創新軟體醫材審核上市之特別機制,分別為類似「創新藥品藥證審核與近用途徑」 (innovative licensing and access pathway)的機制,以及允許適時上市並持續研究監控風險的「氣閘分類規則」(airlock classification rule);WP8為確保智慧型手機之健康應用程式安全、有效與品質之規範研究;WP9~WP11則分別針對人工智慧軟體醫材之安全與有效性、可解釋性(interpretability)以及演進式(adaptive)人工智慧進行法規調適之研究。
MHRA預計透過指引、標準、流程之公布而非立法方式實現其監管此領域的目標。MHRA亦透露,針對上述工作項目,其已與重點國家和國際機構進行研究合作,已有不少進展即將公布。
本文為「經濟部產業技術司科技專案成果」
2013年4月2日,歐盟個人資料保護工作小組(the Article 29 Working Party,以下稱「工作小組」),就目的限制原則(purpose limitation principle)發表意見書,檢視歐盟資料保護指令(Data Protection Directive)第六條所規定的目的限制原則,包括(一)資料的蒐集必須具有特定、明確與合法之目的,以及(二)資料的處理或利用必須符合資料蒐集時之目的。 另一方面,工作小組亦檢視目的限制原則對巨量資料(big data)與開放資料(open data)可能會造成的潛在衝擊: 1.就巨量資料的部分而言,工作小組界定了二個應用情境,一是分析巨量資訊,以分析辨識趨勢或資訊間的相關性,另一是直接影響個人(例如,對當事人的行為進行追蹤、分析、側寫,並據此進行廣告與行銷)。對此,工作小組認為,應給予當事人選擇的權利,另外,組織應揭露關決策標準,並且提供當事人之側寫資料。 2.關於開放資料,工作小組強調匿名化以及資料保護衝擊分析的重要性,以確保必要的安全措施。 工作小組提出兩項修正意見,包括(一)個人資料保護規則(General Data Protection Regulation)草案的第五條宜針對目的限制原則為更明確之規定,以及(二)刪除個人資料保護規則草案第六條第四項之規定。
肯塔基州上訴法院認為,未經當事人同意即使用臉書上之tag功能標示出該當事人,並無違法美國肯塔基州上訴法院於月前駁回一名女子所提出的監護權認定案的上訴。該女子之上訴理由中提到:法院所據以決定監護權之證據之一,乃是未經她同意即被其他人標示出該女子姓名,並放在臉書(Facebook)上供人點閱、瀏覽的照片。但該州上訴法院並不同意這個看法,其在判決中指出:目前並無任何法律要求他人必須先取得該女子之同意後才能對之攝相,並上傳至臉書或其他網站;此外亦無任何法律規定其他人不得將該女子之姓名標示(tag)於這些照片上。 暫撇開其他法律不談,此一案件引人思考之與個人資料保護相關之處至少有二:首先,是關於法律適用的部分,亦即,如本案發生在日後個人資料保護法開始施行後的台灣,則該法第51條第1項(註1)之排除規定是否適用的問題;其二則是法律政策的部分,究竟在這個資訊數位化且易於搜尋的網路時代,為個人或家庭活動目的而毫無設限(例如本案之供不特定人瀏覽)的利用他人之個人資料是否確無為保護個人資料為著眼點之規範必要?(在肯塔基州這個案子裡,此一「無規範」的結果或許是正面的,但在其他的許多狀況,可能並非如此。) 註1:個人資料保護法第51條第1項:「有下列情形之一者,不適用本法規定:一、自然人為單純個人或家庭活動之目的,而蒐集、處理或利用個人資料。二、於公開場所或公開活動中所蒐集、處理或利用之未與其他個人資料結合之影音資料。」
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
澳洲政府提案立法強制要求跨國科技公司協助解密通訊APP訊息澳洲政府2017年07月14日宣布提案立法新資安法規,強制要求跨國科技公司如社群網站Facebook與設備製造廠商Apple等,需配合法院命令,協助解鎖通訊APP的加密訊息,利於政府監控攔截犯罪嫌疑人的加密訊息。澳洲政府同時宣布會在2017年11月前提案,預期在幾個月內通過。 澳洲總理Turnbull表示相關提供加密語音及訊息的APP已在日常生活中使用,根據法案,前述相關網路科技公司,將與電信公司負有相同義務協助執法單位解讀加密訊息。Turnbull表示,儘管政府已成功阻止部分激進份子案例,但由於訊息加密技術日益發展,執法機構愈來愈難取得諸如恐怖分子、販毒者與戀童癖的聯絡訊息,執法單位需要更多支援,以確保網路不會成為犯罪溫床。 澳洲預期成為首個立法監管網路加密語音及訊息APP的國家,目前英國與法國皆在研擬監管加密語音及訊息的法規,同時美國、英國、加拿大、澳洲與紐西蘭組成的「Five Eyes」情報共享聯盟,也在2017年07月將相關議題列入討論。 Facebook表示將抵制Turnbull政府的反加密立法,認為現行已有與安全部門共同合作機制,該法案並無實際用途,在無配套措施的情況,該法也無法實施。Apple執行長Tim Cook 則堅定回應,排除任何可能損及產品安全性的政府合作關係。