日本通過法案 明確列出無人機禁止飛行範圍

  有鑑於今年4月底,一架攜帶具有放射性物質的小型無人機墜毀在日本首相官邸的屋頂上,對元首維安構成威脅,日本政府為此決定加強無人機管控。日本國會並於9月通過民用航空法(Civil Aeronautics Law)修正案,明確列出無人機禁止飛行範圍,違反者最高將可處以50萬日圓(約4,200美元)以下罰鍰,但因災害或自然事故發生而利用無人機進行救援、搜索行動不在規範範圍。

  法案主要修正內容為,特定空域未經申請不可飛行,例如禁止無人機飛越人口密集的住宅區及機場周邊區域,人口密集地區,以每平方公里人口4,000人為界,因此東京都23區和主要區域城市,將會列為無人機禁航區。另外,在舉行慶祝活動及展覽等會吸引大批群眾暫時聚集的地區上空,無人機亦不可飛行。

  然而,通過申請後的飛行區域,仍須遵守幾項要求,如無人機須於日間目視範圍內飛行、無人機與人員及建築物必需保持一定距離,以及未經政府許可,夜間不可使用無人機,並禁止無人機裝載爆炸裝置等會造成人員傷害或財物損失的危險物品。除此之外,並定義「無人機是透過遠程遙控或自動駕駛儀器飛行,且無人機作為機器不能搭載乘客」,但輕量型玩具飛機不包含在內。修訂後的法案將於今年年底前開始施行。

  此外,下議院目前仍審議有關禁止無人機靠近重要設施,包含首相官邸、國會、皇宮、核電廠之草案。

相關連結
※ 日本通過法案 明確列出無人機禁止飛行範圍, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7001&no=57&tp=1 (最後瀏覽日:2026/04/18)
引註此篇文章
你可能還會想看
法國CNIL認Google於Gmail中投放之偽裝廣告及個人化廣告因欠缺當事人有效同意而違法,開罰3.25億歐元

法國國家資訊與自由委員會(Commission Nationale de l’Informatique et des Libertés, CNIL)於2025年9月1日針對一起由歐洲數位權利中心(noyb - The European Center for Digital Rights)提出的申訴做成決議,指Google未經Gmail使用者同意,將廣告偽裝為電子郵件進行「偽裝廣告」(Disguised Ads)投放,以及在對Gmail使用者投放個人化廣告前,未能於Gmail帳號申請流程中提供當事人提供較少cookies、選擇非個人化之通用廣告(generic ads)的選項,違反了《電子通訊法》(code des postes et des communications électroniques)與《資訊與自由法》(loi Informatique et Libertés)中關於歐盟《電子隱私指令》(ePrivacy Directive)之施行規定,對Google裁處了3.25億歐元的罰鍰,並要求改善。以下節錄摘要該裁決之重點: 一、 偽裝成電子郵件的偽裝廣告與電子郵件廣告均須獲當事人同意始得投放 歐盟《電子隱私指令》第13條1項及法國《電子通訊法》規定,電子郵件直接推銷(direct marketing)僅在其目標是已事先給予同意的使用者時被允許。CNIL,依循歐盟法院(CJEU)判例法(C-102/20)見解,認為若廣告訊息被展示在收件匣中,且形式類似真實電子郵件,與真實電子郵件相同位置,則應被認為是電子郵件直接推銷,須得到當事人之事前同意。因此,CNIL認定偽裝廣告即便技術上不是狹義的電子郵件,僅僅因其在通常專門用於私人電子郵件的空間中展示,就足以認為這些廣告是透過使用者電子郵件收件匣傳遞的廣告,屬於電子郵件廣告,而與出現在郵件列表旁邊且獨立分開的廣告横幅不同,後者非屬電子郵件廣告。 二、 Cookie Wall下當事人的有效同意:「廣告類型」的選擇、服務申請流程的隱私設計與資訊透明 CNIL參酌歐盟個人資料保護委員會(European Data Protection Board, EDPB)第2024/08號關於「同意與付費模式」意見,認為同意接受廣告在特定條件下得作為使用Gmail服務的條件。換言之,以「cookie wall」(註:拒絕cookie的蒐集即無法獲得服務之網站設計)取得之當事人「同意」,非當然不自由或無效。CNIL認為,在免費服務的框架下,cookie wall在維持提供服務與服務成本之間的經濟平衡上,要求服務申請者須接受投放廣告的cookie是合法的。惟CNIL認為,這不代表Google可以任意決定所蒐集的cookies和相應廣告模式的類型。 CNIL要求,當事人在cookie wall的框架內仍應享有選擇自由,才能取得蒐集為投放個人化廣告之cookies的當事人有效同意,亦即:在個人化廣告處理更多個資和對當事人造成更多風險的情況下,當事人應被給予機會選擇「等值的替代選項」,亦即通用廣告,並完全且清晰地了解其選擇的價值、範圍及後果。 然而,CNIL發現,Google將與廣告個性化相關的cookies拒絕機制設計得比接受機制更複雜,實際上阻礙了使用者拒絕隱私干預程度更高的cookies。這種拒絕途徑偏袒了允許個人化廣告的cookies的同意,從而影響了當事人的選擇自由。CNIL也發現,Google從未以明確方式告知使用者建立Gmail帳戶時面臨cookie wall,以及對此使用者享有甚麼選擇,而其提供的資訊更引導使用者選擇個人化廣告,導致選擇一般廣告的機會遭到犧牲。 三、 為何不是愛爾蘭資料保護委員會(Data Protection Commission, DPC)管轄? GDPR設有「單一窗口機制」,依據該合作機制,對Google進行的GDPR調查,應由作為主任監管機關(Lead Supervisory Authority)的愛爾蘭DPC管轄。惟在本案,CNIL認為並不適用於單一窗口機制。因為與cookies使用及電子推銷相關的處理並非屬於GDPR範疇,而是適用電子隱私指令,CNIL對法國境內的cookies使用及電子推銷處理享有管轄權。此爭議反映出即便GDPR旨在確保標準化單一市場內的數位管制,但尚不足以弭平成員國間監管強度之差異。

中國大陸食品安全法修訂草案二審稿,將基因改造食品標識明確列入

  2014年12月22日,中國大陸食品安全法修訂草案二審稿增加關於食品貯存和運輸、食用農產品市場流通、基因改造食品標識(中國大陸用語為轉基因食品標籤)等方面之內容。二審稿規定,生產經營基改食品皆應按照規定進行標識,未按規定進行標識的,沒收違法所得和生產工具、設備等物品,最高可處貨值金額五倍以上十倍以下罰款,情節嚴重者責令停產停業,直至吊銷許可證。對於基因改造標識,中國大陸已於《農業轉基因生物安全管理條例》有規定,此次二審稿為保障消費者的知情權,增加加重食品安全違法行為的法律責任,採取多種手段嚴懲,並希望以法律形式將其確定。   我國食品安全衛生管理法於2014年12月10日修法中,對於基改食品標識部分並未修訂,僅在第22條及24條規定了要標識「食品之容器或外包裝,應以中文及通用符號,明顯標示下列事項…(包含基因改造食品原料)」以及「食品添加物之容器或外包裝,應以中文及通用符號,明顯標示下列事項中…(含基因改造食品添加物之原料)」。然而,我國與中國大陸此次修法雖皆有明訂,但明訂方式、標準等並未描述,又如美國佛蒙特州有意立法通過之基改食品標識法也在今年2015年1月因有爭議舉行公聽會,使該法令生效前恐有中止之情事。目前看來,不同國家有不同的基因改造食品標識政策,但國際間仍致力建立一套統一的規範。

台美貿易談判 藥廠權益是焦點

  據報載, 5 月 25 日 起在我國舉行兩天之台灣與美國貿易投資架構協定( TIFA )會談,藥廠權益乃雙方談判焦點,美方這次來台所提出之談判項目中,對台灣藥廠衝擊較大的是資料專屬權( Data Exclusivity ),及專利連結( Pattern Linkage )兩項,本土製藥業擔心,政府若妥協將可能造成台灣藥廠及研究單位新台幣上百億元的損失。   儘管去年初立法院已經三讀通過藥事法 40 條之 2 的「資料專屬權保護」條文,但預料美方這次將要求政府重新修法,以保障外商藥廠的權益。此外,專利連結( patent linkage )也是衛生署嚴陣以待的項目,外商訴求此一機制之目的,係希望透過專利資訊之揭露,使任何申請上市許可之學名藥品,均係在專利到期後或未侵害專利之前提下,使得上市。   專利連結制度首見於美國,美國食品藥物管理局 (FDA) 對藥品有所謂之「橘皮書」,要求公布各藥品的專利內容及安全性與療效資訊,並以此作為日後學名藥賞上市或與原開發藥廠發生專利侵權爭訟時之參考。業界認為,如果台灣也比照美國 FDA 專利連結的規定,可能導致外商藥廠得以輕易對台灣藥廠展開侵權訴訟官司,衝擊我國製藥產業。

美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)

美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。

TOP