美國白宮為因應TikTok威脅,於2020年8月6日頒布第13942號行政命令,以確保資通訊技術與供應鏈國家安全,禁止在美國管轄範圍內的任何人或相關實體,與中國大陸「字節跳動(ByteDance)」及其子公司為任何交易行為。本行政命令係依據美國《國際緊急經濟權力法》(International Emergency Economic Powers Act, IEEPA)、《國家緊急狀態法》(National Emergencies Act, NEA)及《美國法典》(United States Code, U.S.C.)第3篇第301條,以及2019年5月15日頒布的第13873號行政命令,要求國家應維護資訊、通信技術和供應鏈安全,並採取措施以應對國家緊急情況。由中國大陸企業開發及所有的行動應用程式,例如TikTok及WeChat等已威脅到美國國家安全、外交政策及經濟利益,必須採取應對措施。據查TikTok會自動從使用者方擷取大量資料,包括網際網路、定位資料及瀏覽紀錄等。此種資料蒐集行為將使外國人及政黨可以取得美國個人的專屬敏感資訊,追蹤到聯邦政府人員及政府承包廠商位置,建立個人資料檔案進行勒索和商業間諜活動。美國國土安全部、美國運輸安全管理局(Transportation Security Administration, TSA)和美國武裝部隊,已禁止在聯邦政府的通訊設備上使用TikTok,防止資料被竊取並傳輸至境外伺服器。
面對美國全面封殺中國大陸資通訊產品,中國大陸近來亦透過出口管制方案進行反制,2020年8月28日中國大陸商務部會同科技部,調整《中國禁止出口限制出口技術目錄》,將涉及軍民兩用的53項技術,納入出口管制清單。凡涉及向境外技術移轉,無論是採用貿易、投資或是其他方式,皆須申請省級商務主管部門的技術出口許可,獲得批准後方可對外進行實質性談判,簽訂技術出口契約。其中,因TikTok的人工智慧與演算技術,已被含蓋在目錄的管制清單內,若是TikTok要從中國大陸境內轉讓相關技術服務予境外,應暫停相關交易及實質性談判,先履行申請許可程序再為後續行動。
本文為「經濟部產業技術司科技專案成果」
由於近年來勒索軟體對國際金融帶來重大影響,七大工業國組織G7成立網路專家小組CEG(Cyber Expert Group),並於2022年10月13日訂定了「金融機關因應勒索軟體危脅之基礎要點」(Fundamental Elements of Ransomware Resilience for the Financial Sector),本份要點是為因應勒索軟體所帶來之危脅,提供金融機關高標準之因應對策,並期望結合G7全體成員國已施行之政策辦法、業界指南以及最佳之實踐成果,建立處置應變之基礎,加強國際金融的韌性。該份要點內容著重於民營之金融機關(private sector financial entities),或關鍵之第三方提供商(critical third party providers),因其本身有遵守反洗錢和反恐怖主義之融資義務,但也可依要點訂定之原意,在減少自身受到勒索軟體之損害上,或在處置與應變上有更多的彈性。而日本金融廳於2022年10月21日公布該份要點之官方翻譯版本,要點所提列之重點如下: 1.網路安全策略與框架(Cybersecurity Strategy and Framework): 將因應勒索軟體威脅之措施,列入金融機關整體的網路安全策略與框架之中。 2.治理(Governance): 支付贖金本身可能於法不容許,也可能違背國家政策或業界基準,金融機關須在事件發生前,檢視相關法規,並針對潛在的被制裁風險進行評估。 3.風險及控制評估(Risk and Control Assessment): 針對勒索軟體之風險,應建立控制評估機制並實踐之。因此可要求金融機關簽訂保險契約,填補勒索軟體造成的損害。 4.監控(Monitoring): 針對潛在的勒索軟體,金融機關有監控其活動進而發現隱藏風險之義務,並向執法與資通安全機關提供該惡意行為之相關資訊。 5.因應處置、回覆(Response): 遭遇勒索軟體攻擊之事件,就其處置措施,須依原訂定之計劃落實。 6.復原(Recovery): 遭遇勒索軟體攻擊之事件,將受損之機能復原,須有明確的程序並加以落實。 7.資訊共享(Information Sharing): 須與組織內外之利害關係人共享勒索軟體之事件內容、資訊以及知識。 8.持續精進(Continuous Learning): 藉由過往之攻擊事件獲取知識,以提高應變勒索軟體之能力,建立完善的交易環境。 此要點並非強制規範,因此不具拘束力,且整合了2016年G7所公布的「G7網路安全文件之要素」(G7 Fundamental Elements of Cybersecurity document)之內容。綜上述CEG所提列重點,針對我國金融機關在抵禦網路攻擊之議題上,應如何完善資安體制,與日本後續因應勒索軟體之政策,皆值得作為借鏡與觀察。
新加坡推《網路安全法案》:強化網路保護、賦權受害者、要求平台揭露加害者身分面對網路騷擾、私密影像濫用及假訊息快速擴散等現象持續上升,新加坡政府於10月15日正式提出《網路安全(救濟與問責)法案》(Online Safety (Relief and Accountability) Bill,簡稱 OSRA),旨在提供受害者更迅速、更具效力的救濟手段,並強化平台與加害者的法律責任。該法案在16日完成國會一讀,預計於2026年上半年正式設立「網路安全委員會」(Online Safety Commission, OSC)。 政府指出,隨著民眾日常高度依賴網路,各類線上侵害行為不斷增加。根據政府的數位化調查,有84%的受訪者曾接觸有害內容,另有三分之一在過去一年曾遭遇實質的網路不法行為。其類型包括性與暴力內容、網路霸凌、種族與宗教衝突言論等。非營利組織SG Her Empowerment的研究更指出,多數受害者因平台處理無效、加害者匿名、外界輕忽其傷害而感到無助,甚至減少自身在網路上的公共參與。 OSRA的核心是建立網路安全委員會(Online Safety Commission, OSC),作為受害者的專責申訴與救濟窗口。受害者在多數案件中須先向平台申訴;若平台未能妥善處理,即可向OSC報告。但針對私密影像濫用、兒童影像濫用與人肉搜索(doxxing)等急迫性高的侵害,可直接向OSC求助。OSC在確認侵害後,將可發布多類命令,包括要求加害者停止傳播內容、限制其帳號,或命令平台移除貼文、封鎖群組、降低特定內容觸及率等。若平台拒不配合,OSC 還可指示ISP阻擋特定網站,或要求App Store下架相關應用程式。 依據法案與附件內容,新加坡將線上侵害行為分為13類,並分階段實施,包含: 1. 網路騷擾(含性騷擾) 2. 人肉搜索 3. 網路跟蹤 4. 私密影像濫用 5. 兒少影像濫用 6. 網路冒名 7. 不實或合成素材濫用 8. 煽動傷害 9. 煽動暴力 最嚴重且高發生率的前5類,包括預計2026年上半年優先落地,前9類行為將隨後實施,構成法定侵權行為(statutory torts),受害者可據此向法院請求損害賠償或禁制令。 因應匿名性造成追查困難,法案也賦予OSC要求平台提供加害者身分資訊的權限,即OSC得要求平台提供其所持有之、涉嫌造成線上危害之終端使用者身分資訊。受害者在OSC認定遭受侵害後,也可申請揭露資訊以利提起侵權訴訟,但揭露資料若被濫用將構成刑事犯罪。政府表示,OSRA的制定歷經多場閉門會議與公開諮詢並獲得廣泛支持,將補強現行刑事與行政法規,為受害者提供更完整的救濟體系。法案預計在下次國會會期進行二讀審議。
澳洲發布《人工智慧臨床應用指引》提供臨床照護之人工智慧使用合規框架澳洲醫療安全與品質委員會(Australian Commission on Safety and Quality in Health Care, ACSQHC)與衛生、身心障礙及高齡照護部(Department of Health, Disability and Ageing)聯合於2025年8月發布《人工智慧臨床應用指引》(AI Clinical Use Guide),旨在協助醫療人員於臨床情境中安全、負責任使用人工智慧(Artificial Intelligence, AI)。該文件回應近年生成式AI與機器學習快速導入醫療現場,卻伴隨證據不足、風險升高的治理挑戰,試圖在促進創新與確保病人安全之間建立清楚的合規框架。 該指引以臨床流程為核心,將AI使用區分為「使用前、使用中、使用後」三個階段,強調醫療人員須理解AI工具的預期用途、證據基礎與風險限制,並對所有AI產出負最終專業責任。文件特別指出,當AI工具用於診斷、治療、預測或臨床決策支持時,可能構成醫療器材,須符合澳洲醫療用品管理管理局(Therapeutic Goods Administration, TGA)的相關法規要求。 在風險治理方面,該指引明確區分規則式AI、機器學習與生成式AI,指出後兩者因輸出不確定性、資料偏誤與自動化偏誤風險較高,臨床人員不得過度依賴系統建議,仍須以專業判斷為核心。同時,文件要求醫療機構建立AI治理與監督機制,持續監測效能、偏誤與病安事件,並於必要時通報TGA或隱私主管機關。 在病人權益與隱私保護方面,指引強調知情同意與透明揭露,醫療人員須向病人說明AI使用目的、潛在風險及替代方案,並遵循《1998年隱私法》(Privacy Act 1988)對個人健康資料儲存與跨境處理的限制。澳洲此次發布之臨床AI指引,展現以臨床責任為核心、結合法規遵循與風險管理的治理取向,為各國醫療體系導入AI提供具體且可操作的合規參考。 表1 人工智慧臨床應用指引合規流程 使用前 使用中 使用後 1.界定用途與風險。 2.檢視證據與合規。 3.完備治理與告知。 1.AI輔助決策。 2.即時審查修正。 3.維持溝通透明。 1.持續監測效能。 2.標示可追溯性。 3.通報與再評估。 資料來源:AUSTRALIAN COMMISSION ON SAFETY AND QUALITY IN HEALTH CARE [ACSQHC], AI Clinical Use Guide (2025).
法國國家資訊自由委員會將推出符合GDPR的人工智慧操作指引(AI how-to sheets)法國國家資訊自由委員會(CNIL)於2023年10月16日至11月16日進行「人工智慧操作指引」(AI how-to sheets)(下稱本指引)公眾諮詢,並宣布將於2024年初提出正式版本。本指引主要說明AI系統資料集建立與利用符合歐盟一般資料保護規則(GDPR)之作法,以期在支持人工智慧專業人士創新之外,同時能兼顧民眾權利。 人工智慧操作指引主要內容整理如下: 1.指引涵蓋範圍:本指引限於AI開發階段(development phase),不包含應用階段(deployment phase)。開發階段進一步可分為三階段,包括AI系統設計、資料蒐集與資料庫建立,以及AI系統學習與訓練。 2.法律適用:當資料處理過程中包含個人資料時,人工智慧系統的開發與設計都必須確定其適用的法律規範為何。 3.定義利用目的:CNIL強調蒐集及處理個資時應該遵守「明確」、「合法」、「易懂」之原則,由於資料應該是基於特定且合法的目的而蒐集的,因此不得以與最初目的不相符的方式進一步處理資料。故明確界定人工智慧系統之目的為何,方能決定GDPR與其他原則之適用。 4.系統提供者的身分:可能會是GDPR中的為資料控管者(data controller)、共同控管者(joint controller)以及資料處理者(data processor)。 5.確保資料處理之合法性:建立AI系統的組織使用的資料集若包含個人資料,必須確保資料分析與處理操作符合GDPR規定。 6.必要時進行資料保護影響評估(DIPA)。 7.在系統設計時將資料保護納入考慮:包含建立系統主要目標、技術架構、識別資料來源與嚴格篩選使用…等等。 8.資料蒐集與管理時皆須考慮資料保護:具體作法包含資料蒐集須符合GDPR、糾正錯誤、解決缺失值、整合個資保護措施、監控所蒐集之資料、蒐集之目的,以及設定明確的資料保留期限,實施適當的技術和組織措施以確保資料安全等。 對於AI相關產業從事人員來說,更新AI相關規範知識非常重要,CNIL的人工智慧操作指引將可協助增強AI產業對於個資處理複雜法律問題的理解。