英國提出通訊資料法之草案

  英國內政部於2012年6月提出「通訊資料法」之草案(Draft Communications Data Bill),並將於10月舉行公聽會討論。 

 

  所謂通訊資料,非指通訊內容本身之資料,而係指通訊過程中所留下的相關紀錄性資料,包括通訊帳號所有人之資料、通訊之時間、長度、來源、位置等。而目前蒐集通訊資料之用途,多半為犯罪之偵防、避免緊急危難或反恐怖活動。其所牽涉之議題重點則為向提供通訊服務之公司調閱相關資料時,該公司是否有提供之義務,及調閱機關是否有相關權限或對資料之應用是否符合調閱之目的。

 

  此次所提出之草案,主要可分為三大部分:第一部分賦予公務機關調閱資料之權限,並規定使用該等資料過程中,相關的安全保護措施與法定程序要求。第二部分規定調閱資料所必須的法定審查流程,包括主管機關內具備權限的高階主管,應依據比例原則,決定是否可調閱資料,並在一定情況下,須經司法機關審查。另外,國務大臣應建立一定審查機制,審核各主管機關之調閱目的與調閱程序恰當與否。最後,第三部分則是有關提升審查制度運作可能性之規定,諸如明訂各個機關所享有之調閱權,以及提供郵務及電信業務經營者相當之資源以配合機關調閱資料之需求。

相關連結
相關附件
※ 英國提出通訊資料法之草案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=5836&no=67&tp=1 (最後瀏覽日:2026/05/13)
引註此篇文章
你可能還會想看
義大利發布最新全國性AI法案,預計設立醫療AI用平臺,並強化權利保護與病患福利

壹、義大利最新AI法案簡介 義大利於2025年9月17日通過《人工智慧規範與政府授權》立法法案(Disposizioni e delega al Governo in materia di intelligenza artificiale,下稱1146‑B法案),為該國首次針對AI全面立法,亦為歐盟成員國內AI專法先驅。義大利將歐盟《人工智慧法》(AI Act,下稱AIA)框架轉化為國內法,並設立獨立窗口與歐盟對接。為確保落地效率並兼顧國家安全與資料治理,本法採「雙主管機關制」,由隸屬於總理府(Presidenza del Consiglio dei Ministri)之數位局(Agenzia per l’Italia Digitale,AgID)及國家網路安全局(Agenzia per la Cybersicurezza Nazionale,ACN)共同執行。AgID 負責AI技術標準、互通性與公共行政實務執行;ACN則負責資安韌性、事故通報與高風險AI安全性。 目前該法案已由參議院(Senato della Repubblica)審議並表決通過,2025年9月25日已載於義大利《官方公報》(Gazzetta Ufficiale),再經過15天緩衝期後,預計於2025年10月10日正式生效。然截至2025年10月27日為止,未有官方宣布該法案正式生效之證明,故法案是否依該版本內容正式施行仍待確認。其中醫療為AIA顯示之高風險領域之一,亦涉及資料隱私與病患權益等敏感法益,可謂本法落地機制中具代表性之政策面向,故本文特以醫療AI應用為分析重點。 貳、設立醫療AI應用平臺,輔助專業醫護及強化醫療服務取得 1146‑B法案第10條規定,將由義大利衛生服務局(Agenzia nazionale per i servizi sanitari regionali,AGENAS)主導設立該國家醫療AI應用平臺。該平臺定位為全國級資料治理與AI導入審查機制工具,主要功能為對醫療專業人員提供照護病患與臨床實踐時無法律約束力之建議,並對病患提供接觸社區醫療中心AI服務之管道與機會。該平臺僅得依「資料最小化原則」(dati strettamente necessary)蒐集以上醫療服務所需之必要資料,經向衛生部(Ministero della salute)、資料保護局(Garante per la protezione dei dati personali)及CAN徵詢意見後,由 AGENAS 負責資料處理,並經地方常設協調會議同意後,得以公告方式制定符合歐盟《一般資料法規》(General Data Protection Regulation,GDPR)之風險控管與敏感健康資料處理細則。 在確保資料安全合規後,法案強調對醫療保健之服務可及性(accesso ai servizi)進行改善,病人能透過此平臺更便利地接觸到社區醫療中心所提供之各類AI健康醫療服務,如診斷輔助、數位健康檔案調閱等,亦符合AIA強調AI發展應確保社會公益等權利之宗旨。 參、醫療用AI之限制與目標 法案第7條第5項規定AI僅能作為醫療決策輔助工具提供無拘束力之建議,重申前述醫療平臺相關規定;AI亦不得根據歧視性標準選擇或限制病人獲取醫療服務。病人享有「知情權」(diritto di essere informato),即有權知悉診療過程中是否使用有使用AI、使用方式(如僅為輔助)及其限制。針對健康資料之隱私處理方面,如病歷、基因資料、診斷紀錄等,要求醫用AI系統須持續監測、定期驗證與更新,以降低錯誤風險,維護病人健康安全,亦明文強調醫療AI之使用應以改善身心障礙者生活為目標。 四、總結 1146-B法案在醫療 AI 治理上,透過雙主管機關制平衡歐盟對接、技術發展與風險控管,符合AIA要求並避免權責衝突。建立由 AGENAS 主導的醫療 AI 應用平臺,在相關部門意見下運作,確保資料處理與服務推動合規與安全。病人權利方面,強調知情權、健康資料隱私與地方醫療AI普及,符合資料最小化與 GDPR 規範,展現義大利在醫療 AI 上兼顧創新、透明與權益保障之立場,往後應持續關注AGENAS釋出之關於該平臺使用之相關細則。 本文為資策會科法所創智中心完成之著作,非經同意或授權,不得為轉載、公開播送、公開傳輸、改作或重製等利用行為。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

FDA發布「制定醫療器械在上市前核准(PMA)、低風險創新器材(De Novo)分類和人道用途器材免除(HDE)的利益-風險決策之不確定性考量指引草案

  美國食品和藥物管理局(FDA)於2018年9月6日發布關於「制定醫療器械在上市前核准(PMA)、低風險創新器材(De Novo)分類和人道用途器材免除(HDE)的利益-風險決策之不確定性考量指引草案。」   為滿足FDA促進公共健康的使命,醫療器械上市前核准(PMA)通常涉及較高的不確定性,因此本指引是適當的解決利益風險的判定以支持FDA的決策。包含考量患病群願意接受醫療器械帶來的益處及風險之更多不確定性,特別是沒有可接受的替代治療方案時。   根據指引草案,FDA依據具體情況,判定其利益-風險的適當程度之不確定性,包括: (1) 醫療器械可能帶來好處程度。 (2) 醫療器械存在的風險程度。 (3) 關於替代治療或診斷的利益-風險之不確定程度。 (4) 如果可能,需瞭解患者對醫療器械可能帶來的益處和風險之不確定性觀點。 (5) 公共衛生需求的程度。 (6) 依據臨床證據可支持上市前之可行性。 (7) 能夠減少或解決醫療器械的上市後利益-風險留下之不確定性。 (8) 上市後緩解措施的有效性。 (9) 建立決策類型。(如上市前核准(PMA)和人道用途器材免除(HDE)的核准標準不同。) (10) 對於早期患者訪問醫療器械的可能帶來的益處。   本指引草案中,FDA基於考量有關醫療器械臨床/非臨床訊息之利益風險,需與FDA的規範、監管機關和要求要有一致性。

德國將放寬非基因改造標示法規

  德國聯邦食品農也消保部(BMELV)發言人宣布,針對非基因改造食品標示制度之修正,今(2008)年初已達成政治協商,未來德國的非基因改造食品標示,將會容許那些在無可得替代產品的情形下而使用了基因改造維他命、添加物或加工輔助用料等基因改造產品之終端食品,標示為非基因改造食品。如此一來,那些使用目前只能以基因改造加工製成之維他命(如維他命B21、lyside等)所飼養之動物,日後動物來源食品以其作為原料時,這些食品將來也可以標示為非基因改造。此修法預計可在明年初完成實施。   德國此次修法目的,實係為了促進食品產業使用非基因改造標示。自從1990年建立非基因改造食品專有之標示制度起,動物來源食品如要作非基因改造標示,必須連在飼養時都使用非基因改造飼料,但食品產業卻表示此規定審為嚴苛且維持基因改造聲明所需的文件繁多,此機制實際上根本難以運用。BMELV為了促進食品產業使用非基因改造標示,遂決定修法放寬標準。   然而,這樣的修法仍然引起部分反對意見,例如德國食品產業聯盟(German food industry federation)即表示,非基因改造標示應當只能給予完全未使用基因改造之產品,其他產品則應使用諸如未含基因改造植物之類的聲明,否則就是誤導民眾之行為。此外,假如標有非基因改造標示的食品以此種方式使用過基因改造材料的話,更可能會折損非基因改造食品標示可性度。

新加坡網路安全局發布人工智慧系統安全指南,以降低AI系統潛在風險

新加坡網路安全局(Cyber Security Agency of Singapore, CSA)於2024年10月15日發布人工智慧系統安全指南(Guidelines on Securing AI Systems),旨在強化AI系統安全,協助組織以安全之方式運用AI,降低潛在風險。 該指南將AI系統生命週期分成五個關鍵階段,分別針對各階段的安全風險,提出相關防範措施: (1)規劃與設計:提高AI安全風險認知能力,進行安全風險評估。 (2)開發:提升訓練資料、模型、應用程式介面與軟體庫之供應安全,確保供應商遵守安全政策與國際標準或進行風險管理;並辨識、追蹤及保護AI相關資產(例如模型、資料、輸入指令),以確保AI開發環境安全。 (3)部署:適用標準安全措施(例如存取控制、日誌記錄),並建立事件管理程序。 (4)運作與維護:持續監控AI系統的輸入和輸出,偵測異常與潛在攻擊,並建立漏洞揭露流程。 (5)壽命終期:應根據相關行業標準或法規,對資料與模型進行適當之處理、銷毀,防止未經授權之存取。 CSA期待該指南發布後,將有助於預防供應鏈攻擊(supply chain attacks)、對抗式機器學習攻擊(Adversarial Machine Learning attacks)等安全風險,確保AI系統的整體安全與穩定運行。

TOP