於美國時間2021年11月15日,基礎建設法案(Infrastructure Investment and Jobs Act,以下稱基建法案)由美國總統拜登(Joe Biden)簽署後正式成為法律。依據白宮聲明,該法案旨在提供工作機會,改善港口與運輸以改善供應鏈,及其他關於美國基礎建設的投資等。此外該法案內容因涉及加密貨幣交易資訊申報議題,受到加密貨幣產業眾多矚目。
基建法案與加密貨幣產業有關者,主要是在美國國內稅收法典(Internal Revenue Code of 1986)第6050I與第6045條之既有規定中,分別將交易標的現金之定義新增數位資產(Digital Asset),及新增經紀商(Broker)之申報義務。所謂數位資產係以數位方式表彰一定價值,並透過加密保全的分散式帳本或其他類似技術所記錄之資產。經紀商認定範圍新增包括「關於任何為獲得報酬,而負責定期提供任何服務,代表他人實現數位資產轉移者」。法規生效後,任何價值超過10,000美元之交易訊息(諸如交易者姓名、社會安全號碼等資訊)應申報至美國國家稅務局(IRS),經紀商亦被要求申報其所經手交易至美國國家稅務局,新規範將適用於2023年12月31日後所應依法申報之文件。
區塊鏈技術去中心化的特性讓加密貨幣交易得以匿名化方式進行,然而新法一概將價值超過10,000美元的交易納入申報範圍。有論者認為,對於未建立身分驗證機制之小型平台業者、礦工以及散戶等經紀商或交易人,如何調整去匿名化之交易模式以遵循申報義務之法令,將是一大挑戰。綜上,新規範揭示政府將深化對於加密貨幣產業之監管,如何兼顧交易自由與交易秩序,將考驗著監管當局及業者之智慧。
RFID 的利用帶來新一波的物流及管理變革,但是侵犯人權及隱私等相關問題也引發了尖銳的討論,英美等國隱私保護團體及國會議員紛紛呼籲英制訂相關的使用規範。 歐盟在 2006 年 3 月 10 日也舉辦了一場公開意見徵詢,主要徵詢意見的議題有跨國 RFID 系統互通、相容,以及在應用上可能因洩漏位址、身份及歷程而導致的隱私及安全問題。資訊社會及媒體委員會主席 Vivien Reding 表示,隨著晶片技術進步,晶片會變得越來越聰明, RFID 全面應用後可能引發的問題可能在未來會越來越嚴重。透過多網路的連結,必然會促進經濟的繁榮及生活品質的提升,但是隱私保護的問題若不解決,將可能會影響這項科技的應用。因此,對於 RFID 未來的應用應該達成一種社會共識( society-wide consensus )並預先建立可信賴的保護機制。 為此,執委會將公開徵求諮詢,預計在下半年會公布意見資料,後續並可能在進行 2002 年電子通訊及隱私保護指令的修正工作及檢討 RFID 頻率的指配。
德國社群媒體管理草案交付立法程序德國總理梅克爾(Angela Merkel)所領導的內閣於2017年4月5日通過社群媒體管理草案(Gesetz zur Verbesserung der Rechtsdurchsetzung in sozialen Netzwerken),該法案要求社群媒體必須積極管理使用者散布的仇恨言論及假消息,未善盡義務的社群媒體最高可裁罰5千萬歐元。 德國早於2015年12月已與Facebook、Google及Twitter等知名社群網站達成協議,必須在24小時內刪除網站上的不實或違法言論。但根據jugendschutz.net組織公布的數據,Facebook刪除了39%違法內容、Twitter只刪除了1%違法訊息,而Google的Youtube則需要以其他工具進行實測。由於社群媒體自我管理的效果不彰,促使德國政府認為在業者自律之外,必須要制定法律與罰則讓社群媒體負起責任,積極管理網站上使用者的不實與違法言論。 本草案重點包括: 適用範圍:本草案適用於電信媒體服務提供商,且該提供商之網路平台係以營利為目的,允許使用者與其他使用者共享訊息或對大眾分享任何資訊。 社群媒體必須設立24小時受理案件之投訴管道。 接到投訴後,社群媒體必須在24小時內刪除「明顯違法」之內容,其他有爭議的內容必須在7天內確認並刪除違法內容。 社群媒體必須定期提供主管機關其投訴之處置報告。 本草案已送交德國立法機關進行立法程序,但反對者認為一旦通過立法,可能會對言論自由產生不良影響,並抑制網路言論的發表。德國對於社群媒體之管理,值得持續關注。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。