英國交通部將擬議新增無人機規管措施

  在過去幾年,涉及無人機的事故發生頻率急遽上升,從2014年的6起事件至2017年增加到93起,根據英國交通部(The Department for Transport)研究顯示,重達400克的無人機可撞碎一架直升機的擋風玻璃、2000克無人機可嚴重損壞一架客機的擋風玻璃。為防止濫用無人機,保障大眾安全,英國交通部將提出更嚴格的規管措施,並於2018年7月26日起於網站上公開徵求意見,若通過將成為無人機法案(Drones Bill)草案的一部分。

  擬議之規管措施包括:(1)設定小型無人機持有者之最低年齡;(2)賦予警察對於違規無人機之執法權力,如對於違規之無人機,即時開立罰緩處分;(3)使用新的反無人機技術(counter-drone technology)以保護公眾活動,確保國家關鍵基礎設施免受滋擾,並防止物品走私至監獄;(4)規定無人機操作員於無人機起飛前,透過應用程式(apps)提交飛行計劃。

  無人機應用產業在未來十年將迅速成長,新措施之目的係為確保無人機之使用安全。交通部政務次長(Parliamentary Under Secretary of State for Transport)Baroness Sugg表示,無人機為社會和經濟帶來良好效益,為防止無人機造成的滋擾超過其潛在利益,將新增規管措施,並進行公開諮詢。

  此外,從2018年7月30日起,禁止無人機飛行高度超過122公尺(400英尺),及不得於距離機場邊界1公里(0.6英里)內飛行之飛航令(Air Navigation Order)已正式施行,違反者將面臨高達2,500英鎊的罰金或處五年以下有期徒刑。

相關連結
※ 英國交通部將擬議新增無人機規管措施, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8087&no=67&tp=1 (最後瀏覽日:2025/12/10)
引註此篇文章
你可能還會想看
英國資訊委員辦公室提出人工智慧(AI)稽核框架

  人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。   AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。   「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。   ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。

日本內閣府公布生成式AI初步意見彙整文件,提出風險因應、應用及開發兩大關注重點

日本內閣府於2023年5月26日召開第2次「AI戰略會議」(AI戦略会議),並公布「AI相關論點之初步整理」(AIに関する暫定的な論点整理)。鑒於AI對於改善國人生活品質、提高生產力無疑有相當助益,考量生成式AI甫問世,社會大眾對其潛在風險尚心存疑慮,內閣府遂以生成式AI為核心,延續先前已公布之「AI戰略2022」(AI 戦略 2022)、「以人為中心的AI社會原則」(人間中心の AI 社会原則),以「G7廣島峰會」(G7広島サミット)所提出之願景—「符合共同民主價值的值得信賴AI」為目標,提出「風險因應」及「應用與開發」兩大關注重點,供政府有關部門參考之同時,並期待可激起各界對於生成式AI相關議題之關注與討論: 一、風險因應:AI開發者、服務提供者與使用者應自行評估風險並確實遵守法規及相關指引;政府則應針對風險應對框架進行檢討,對於已知的風險,應先以現有的法律制度、指引與機制進行處理,假如現有法制等無法完全因應這些風險,則應參考各國作法盡速對現行制度進行修正。 AI的透明度與可信賴度於風險因應至關重要。若能掌握AI學習使用哪些資料、所學習資料之來源、AI如何產生結果等,就能針對使用目的選擇適合的AI,也較易因應發生之問題,並避免AI產生錯誤結果或在對話中洩漏機密資訊等。對此,本文件呼籲AI開發者及服務提供者依據現行法令和指引主動揭露資訊,政府則應對透明度和可信賴度相關要求進行檢討,並應依普及程度及各國動向對既有的指引進行必要之修正。 二、應用與開發:本文件建議政府部門積極使用生成式AI於業務工作上,找出提升行政效率同時不會洩漏機密之方法,並向民眾宣導AI應用之益處與正確的使用方式,以培養民眾AI相關技能與素養,藉以更進一步建構AI應用與開發之框架,如人才培育、產業環境準備、相關軟硬體開發等。

論析各國之企業智慧資產揭露機制

歐盟延攬人才 推動新措施

  有鑒於現今歐洲投資於研發的經費遠落後於美國,因此使得近幾年仍無法有效縮減歐盟與美國間的創新發展落差。日前執委會提出一項針對研發環境的整合性計畫,希望藉以提升歐洲創新與研究的相關條件 。   這項計劃其來有自,早在2000年里斯本高峰會議宣示致力達成「歐洲研究領域( European Research Area) 」;2002年巴賽隆納高峰會更作出重要決議:要求所有會員國需在2010年前完成科研投資達GDP3%的目標,並且期望其中三分之二的投資將來自工商界。   該項計劃特別將焦點集中在改善私部門研發與創新之投資條件上,透過「研究人員流通行動方案」 提倡科研人才前往私人研究部門、鼓勵大學和企業之間的合作,並透過租稅補貼來鼓勵企業的投入、重新配置研究基金、改善提升大學與企業間夥伴關係等獎勵措施,以提升經濟成長與創造就業機會。

TOP