2020年6月、9月及11月,印度電子及資訊科技部(Ministry of Electronics and Information Technology, MeitY)分別發布三項公告,內容為封鎖數款具資安風險之應用程式,並直接列出名單,總數一共高達220款。三項公告分別如下:
三項公告皆指出依照資訊技術法(Information Technology Act 2000)第69A條之規定,中央政府為保護印度主權之完整性、國家安全、公共利益而有必要,得透過命令封鎖、監視或解密由特定電腦資源(computer resource)產生、傳送、儲存或管理的資料。依照同法第2條第1項第k款,電腦資源係指電腦設備、電腦網路、軟體或應用程式。
電子及資訊科技部進一步表示,經民眾檢舉後調查發現,在手機Android及iOS系統之應用程式商店中,有許多應用程式未經使用者授權就存取其重要資料,並傳輸到印度境外的伺服器,不僅對印度人民隱私造成威脅,更損害印度國家安全與公共利益。有鑑於此,電子及資訊科技部決定封鎖此類具資安風險之應用程式,將名單中所列應用程式自應用程式商店中下架,名單中包括TikTok、WeChat、淘寶、支付寶、微博等應用程式。由於名單中大多數皆屬中國企業開發之應用程式,外界普遍認為是今年6月中印軍隊於邊界西段加勒萬河谷(Galwan Valley)發生衝突,因此印度透過封鎖中國資通訊服務之手段以牽制對方,預計此舉將導致兩國關係更加緊張。
2010年9月歐洲議會通過第2010/63/EU號指令(DIRECTIVE 2010/63/EU)修正文本,新的指令將修正第86/609/EEC 指令(Directive 86/609/EEC)原有規定,以加強對科學實驗用動物的保護。 2010年5月世界動物健康組織(the World Organisation for Animal Health, OIE)第78屆 大會中通過了第一個國際動物福祉標準,該標準納入OIE陸棲動物健康法典規範(OIE Terrestrial Animal Health Code)做為研究與教育用動物保護的準則,歐盟作為主要的提案者於是加速規範修正作業以回應OIE之承諾。新指令將規定歐盟各國主管機關必須在同意研究採用動物實驗前,評估其他研究方式的可能性並進行倫理評估,如需採用動物實驗應儘可能減少被試驗動物之痛楚,此外新指令也確保被實驗動物享有應有的生存環境,如適當大小的籠子等的要求。 新指令適用範圍將包括教育、訓練與基礎研究用的動物,其包含所有人類以外的活體脊椎動物以及某些可能感受痛楚的物種。靈長類動物如人猿的實驗也被禁止,除非為了該物種本身之生存所需,或者其他可能造成人類生存威脅或疾病之避免所必要方得於各國政府同意下進行之。新的指令將擴大禁止使用人猿、黑猩猩、彌猴等靈長類動物的實驗,除非有證據顯示其他物種的實驗無以達成靈長類動物實驗所能達成之目的,但也有成員國表示擴大靈長類動物實驗的限制將對於神經退化性疾病如阿茲海默症等的研究造成阻礙。 動物實驗的3R原則—取代、減量與改善(replacing, reducing, and refining)在第2010/63/EU號指令修正文本都已有相關規範,歐盟執委會表示歐盟將繼續致力於強化實驗用動物的福祉,同時為了確保新法的貫徹,新指令將授權設立歐盟層級的示範實驗室(Reference Laboratory at European Union level)協調各國採取替代動物實驗的方式。歐盟執委會表示新的指令將會在今年秋天公布。
澳洲發布《人工智慧臨床應用指引》提供臨床照護之人工智慧使用合規框架澳洲醫療安全與品質委員會(Australian Commission on Safety and Quality in Health Care, ACSQHC)與衛生、身心障礙及高齡照護部(Department of Health, Disability and Ageing)聯合於2025年8月發布《人工智慧臨床應用指引》(AI Clinical Use Guide),旨在協助醫療人員於臨床情境中安全、負責任使用人工智慧(Artificial Intelligence, AI)。該文件回應近年生成式AI與機器學習快速導入醫療現場,卻伴隨證據不足、風險升高的治理挑戰,試圖在促進創新與確保病人安全之間建立清楚的合規框架。 該指引以臨床流程為核心,將AI使用區分為「使用前、使用中、使用後」三個階段,強調醫療人員須理解AI工具的預期用途、證據基礎與風險限制,並對所有AI產出負最終專業責任。文件特別指出,當AI工具用於診斷、治療、預測或臨床決策支持時,可能構成醫療器材,須符合澳洲醫療用品管理管理局(Therapeutic Goods Administration, TGA)的相關法規要求。 在風險治理方面,該指引明確區分規則式AI、機器學習與生成式AI,指出後兩者因輸出不確定性、資料偏誤與自動化偏誤風險較高,臨床人員不得過度依賴系統建議,仍須以專業判斷為核心。同時,文件要求醫療機構建立AI治理與監督機制,持續監測效能、偏誤與病安事件,並於必要時通報TGA或隱私主管機關。 在病人權益與隱私保護方面,指引強調知情同意與透明揭露,醫療人員須向病人說明AI使用目的、潛在風險及替代方案,並遵循《1998年隱私法》(Privacy Act 1988)對個人健康資料儲存與跨境處理的限制。澳洲此次發布之臨床AI指引,展現以臨床責任為核心、結合法規遵循與風險管理的治理取向,為各國醫療體系導入AI提供具體且可操作的合規參考。 表1 人工智慧臨床應用指引合規流程 使用前 使用中 使用後 1.界定用途與風險。 2.檢視證據與合規。 3.完備治理與告知。 1.AI輔助決策。 2.即時審查修正。 3.維持溝通透明。 1.持續監測效能。 2.標示可追溯性。 3.通報與再評估。 資料來源:AUSTRALIAN COMMISSION ON SAFETY AND QUALITY IN HEALTH CARE [ACSQHC], AI Clinical Use Guide (2025).
美國又傳疑似商業間諜活動2007年3月舊金山聯邦法院受理Oracle軟體公司對競爭對手SAP及其關係企業TomorrowNow提出濫用電腦詐欺、商業間諜行為告訴。 Oracle公司表示,自2006年底起便發現公司網站中與PeopleSoft、J.D. Edwards有關的客戶支援與維護部分出現流量暴增的現象。犯罪者冒用客戶的ID進入網站中竊取重要軟體與資料,目前已發現超過一千萬筆的違法下載紀錄,而犯罪者IP位址是來自於SAP德州辦公室所在地。 訴狀中指出,SAP員工涉嫌冒用多名PeopleSoft及J.D. Edwards的客戶帳號,登入並存取Oracle的重要資料與客戶連繫系統。因此,Oracle要求法院對SAP發出禁制令,以阻止其違法行為,另聲請法院下令要求SAP歸還非法竊取之資料與文件。 面對Oracle指控,SAP公司發言人Steve Bauer表示公司目前仍在瞭解與檢視該案件,因此不便就整起事件發表評論,但公司保證將全力回擊Oracle的指控。
美國國會就外國情報偵察法提出修正草案美國民主黨國會議員針對「外國情報偵察法」(Foreign Intelligence Surveillance Act of 1978, FISA)提出修正草案,2007電子監察法案 (Responsible Electronic Surveillance That is Overseen, Reviewed and Effective Act of 2007, RESTORE Act of 2007),主要目的在提高政府部門對外國人進行電子監聽之門檻,以增加電子監聽之隱私保障。 在911恐怖攻擊事件後,美國有不少電信業者開放其網路供政府部門進行電子監聽。但是隱私保護團體認為此一行為對於美國民眾之個人隱私造成莫大傷害,並對各大電信公司提起訴訟。為協助配合政府監聽要求之電信業者免於此一民事訴訟糾紛,布希政府要求國會修正外國情報偵察法的同時,增訂溯及既往之條款,使過去曾配合政府之監聽要求的電話及網路服務提供業者能免責,不需面對高額求償之訴訟。 儘管隱私保護團體認為該修正草案對於隱私權之保護比現行法規更為周延,但仍認為美國國會還應立法要求政府對於本國人之電話或電子郵件訊息之監聽,必須事先申請獨立之搜索票。但布希政府指出,針對所有可疑目標之監聽均一一申請獨立搜索票將會花費過多時間,影響監聽之效率。 由於此一修正草案具有高度爭議,因此美國國會已於日前延後該修正草案之表決時間,以便就該修正草案進行更周詳之討論。