有鑑於今年4月底,一架攜帶具有放射性物質的小型無人機墜毀在日本首相官邸的屋頂上,對元首維安構成威脅,日本政府為此決定加強無人機管控。日本國會並於9月通過民用航空法(Civil Aeronautics Law)修正案,明確列出無人機禁止飛行範圍,違反者最高將可處以50萬日圓(約4,200美元)以下罰鍰,但因災害或自然事故發生而利用無人機進行救援、搜索行動不在規範範圍。
法案主要修正內容為,特定空域未經申請不可飛行,例如禁止無人機飛越人口密集的住宅區及機場周邊區域,人口密集地區,以每平方公里人口4,000人為界,因此東京都23區和主要區域城市,將會列為無人機禁航區。另外,在舉行慶祝活動及展覽等會吸引大批群眾暫時聚集的地區上空,無人機亦不可飛行。
然而,通過申請後的飛行區域,仍須遵守幾項要求,如無人機須於日間目視範圍內飛行、無人機與人員及建築物必需保持一定距離,以及未經政府許可,夜間不可使用無人機,並禁止無人機裝載爆炸裝置等會造成人員傷害或財物損失的危險物品。除此之外,並定義「無人機是透過遠程遙控或自動駕駛儀器飛行,且無人機作為機器不能搭載乘客」,但輕量型玩具飛機不包含在內。修訂後的法案將於今年年底前開始施行。
此外,下議院目前仍審議有關禁止無人機靠近重要設施,包含首相官邸、國會、皇宮、核電廠之草案。
澳洲工業、科學及資源部(Department of Industry, Science and Resources)於2025年12月2日發布「國家AI計畫」(National AI Plan),擘劃了澳洲至2030年的AI發展藍圖,將「掌握機遇」、「普及效益」與「確保人民安全」列為三大發展方向。該計畫將透過基礎建設投資、人才培育、產業支持,以及強化監管能力等途徑,打造一個更具競爭力、包容性與安全性的 AI 生態系統。 國家AI計畫的另一個重點在於,澳洲政府打算透過現有的法律監管架構治理AI,而不另立AI專法。此舉是回應澳洲生產力委員會(Productivity Commission)於8月提出之建言:政府在推動創新與訂定規範時必須取得平衡,應暫緩推動「高風險 AI 的強制護欄(mandatory guardrails)」,僅有在現行制度無法處理AI衍生之危害時,才有必要考慮制定 AI 專法。 據此,國家AI計畫指出,面對AI可能造成的危害,現有制度已有辦法進行處理。例如面對使用AI產品或服務的爭議,可依循《消費者保護法》(Australian Consumer Law)取得權利保障;AI產品或服務的風險危害,亦可透過《線上安全法》(Online Safety Act 2021)授權,制定可強制執行的產業守則(enforceable industry codes)來應對。澳洲政府未來也將推動《隱私法》(Privacy Act 1988)修法,意欲在「保護個人資訊」與「允許資訊被使用及分享」之間取得適當平衡。 同時,由於採用分散式立法的關係,澳洲特別成立「AI 安全研究院」(Australian AI Safety Institute, AISI),以強化政府因應 AI 相關風險與危害的能力。AISI將協助政府部門內部進行監測、分析並共享資訊,使部門間能採取即時且一致的治理政策。 澳洲政府曾在2024年9月研議針對高風險AI進行專門的監管,但因擔心過度立法恐扼殺AI發展轉而採用「科技中立」的監管方式,以既有法律架構為基礎推動AI治理。此與歐盟的AI治理邏輯大相逕庭,未來是否會出現現行制度無法處理之AI危害,抑或採用現行法制並進行微調的方式即可因應,值得持續觀察。
英國發布人工智慧網路資安實務守則英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。
美國司法部稱Google的隱私權考慮是藉口美國司法部曾在2006年1月要求Google公司交出100萬張網頁資料,並提供一週內用戶搜尋關鍵字的紀錄,以協助布希政府舉證說明現行網頁過濾技術的漏洞,為捍衛兒童線上保護法(1998 Child Online Protection Act)提供辯護。但Google公司於2月17日,以大型企業商業機密外洩和用戶隱私權遭到侵犯為由,向加州法院提出措辭強硬的法律摘要報告,並拒絕美國司法部的要求。 針對Google所提出的摘要報告,美國司法部於2月24日提出回應。美國司法部公開表示,Google公司所宣稱:「提供用戶搜尋資訊將侵犯用戶的隱私權」,只不過是一個藉口。司法部進一步指出,美國線上、雅虎以及微軟等其他搜尋引擎業者都已按照要求提供了搜尋資訊。最後,司法部表示,政府為案件所需,擁有向一切機構徵求資訊的正當權利,因此Google公司仍必須將要求的資料提出。
英國技術移轉政府辦公室發布2023至2024年之年度施政報告英國技術移轉政府辦公室(Government Office for Technology Transfer, GOTT)於2022年4月成立,主要解決公部門研發成果,即「知識資產」(knowledge assets, KA),因面臨運用不足及管理等困境,並積極推動公部門衍生新創政策,促進KA產業化。 GOTT會依研發法人的需求及經驗程度,提供個別支援性服務,如協助較無KA運用經驗之法人設置KA運用工作規則及管理方式等直接技術性指導,亦提供較有KA運用經驗之法人額外投資資金及其他資源挹注。 GOTT於2024年7月5日發布過去一年(2023年4月1日至2024年3月31日)之施政報告,主要重點簡述如下: (1)對「玫瑰書」(the Rose Book),即政府KA管理指引,提出細部操作指引,如:「PSB內KA管理負責人角色任命指引」、「協助PSB制定KA管理策略指引」、「智慧財產權及其機密性指引」、「附件A–知識資產類別與類型」、「附件B–KA評估工具」、「附件C–商業化路線」、「附件D–獲取KA指引」、「附件E–人才流動指引」以及「申請KA補助基金指引」等。 (2)推出首個政府對公部門創新研發之市場驗證加速器計劃,稱為「公共研究創新和市場加速器」(the Public Research Innovation and Market Accelerator, PRIMA),協助公部門創新者測試其研發構想、產品及服務是否有市場發展潛力。 (3)發布「公部門衍生新創公司研究」(Public Sector Spinouts Study),為英國政府首次對公部門推動衍生新創政策及制度進行審查,顯示英國推動上遇有許多推動障礙,研究最後對英國政府及GOTT提供多項施政建議。