日本政府對於「小型無人機進階安全確保制度」進行研議,並研提「航空法」修正建議

  日本政府於2016年1月5日成立「小型無人機進階安全確保制度設計相關小組委員會」(小型無人機の更なる安全確保のための制度設計に関する分科会),聚焦無人機飛安方面之實務議題。會議由内閣官房内閣参事官擔任議長,並由國土交通省航空局協助辦理,民間參與者則多為相關產業公協會,目前規劃每兩個月開1-2次會議,其運行方式包括:原則上為非公開會議,其會議資料將於會後公開,但若議長認有必要,則得決定一部或全部不公開;此外,對於委員會成員以外的民間企業及專家學者之意見,亦應聽取。

  為更進一步確保小型無人機於飛行時之安全性,本次會議對「航空法」提出如下修正建議:
(1)除「航空法」第一百三十二條之二所規範之飛行方式及禁飛區域外,尚有其他相關飛安重要事項亦應注意,例如:機體本身之缺陷、操控者失誤、不可預期的天候變化、機體重量等(一定重量以上之無人機,對於機體性能及操控者技術應有更高要求,未來可思考訂定罰則或提供擔保)。
(2)對於機場周邊應有比現行法更嚴格之規範,除因此處操控無人機容易誤入禁區外,該範圍以內通常是飛安事故搜救區,恐妨害搜救之進行。
(3)關於禁區內飛行許可之審查,應包含:機體機能與性能、操控者知識、技術與經歷。
(4)對於商業、營業用無人機,應有更高的安全性要求。但何謂商業、營業用之定義及更高安全性究何所指須有更明確的標準!

相關連結
※ 日本政府對於「小型無人機進階安全確保制度」進行研議,並研提「航空法」修正建議, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7221&no=64&tp=1 (最後瀏覽日:2026/04/23)
引註此篇文章
你可能還會想看
日本內閣閣議決定2023年度朝向數位社會實現之重點計畫,強化活用數位技術之法規整備

2023年6月9日,日本內閣閣議決定2023年度「朝向數位社會實現之重點計畫」(デジタル社会の実現に向けた重点計画)。該計畫是針對數位社會之實現,明確記載日本政府應迅速且重點性實施的政策及各行政機關於整體社會結構改革(こうぞうかいかく)、個別施行政策之努力,並做為日本向世界提出建言時的羅盤。 其中,值得關注的是日本對於為活用數位技術所做之法規整備。根據2022年12月日本數位廳轄下的數位臨時行政調查會(デジタル臨時行政調査会)的調查,確認與實地檢查、定期檢查、文件閱覽等相關之法律條文內含過時概念,以致於會對數位轉型之發展造成阻礙的條文(下稱過時法律)約有一萬條。對此,數位臨時行政調查會表示,數位改革與法律改革之間的關係為一體兩面,為了最大化發揮數位化的效果,法律改革的相關檢討亦應一併執行。各法律之相關行政機關應依照「基於數位原則對過時法律所作之修正工程表(デジタル原則を踏まえたアナログ規制の見直しに係る工程表)」對各過時法律做出相關檢討,並以2024年6月修正各過時法律為目標。 舉例來說,為實現民事判決的全面數位化,2022年5月18日,日本參議院通過了民事訴訟法等法律的部分修正案,其中最值得關注的部分為當事人可以透過網路向法院提起訴訟、提出準備資料,以及透過網路受領法院送達之相關訴訟文書等。該修正案亦包含訴訟中程序之修正,以言詞辯論程序為例,當事人可透過線上會議之方式進行言詞辯論程序,惟施行期間預計於公告後2年內開始實施。 台灣於2015年7月就智慧財產行政訴訟事件正式啟用線上起訴系統,同年9月開放稅務行政訴訟事件使用,並於2016年開放民事訴訟事件使用。該系統與日本體系不同之處在於,日本目前僅就民事訴訟事件開放線上起訴系統之使用。不過,日本2022年針對刑事訴訟法數位化之部分做出相關報告書,可預期日本將來也會將線上起訴及審理系統導入刑事訴訟法之領域。未來可以持續觀察日本就線上起訴及審理系統之訂定及政策施行方向,作為我國之參照。 本文同步刊登於TIPS網站(https://www.tips.org.tw)

何謂「智慧機械」

  智慧機械產業為目前我國五大創新產業政策之一,主要目的是將臺灣從精密機械升級為智慧機械,爰此,行政院於105年7月核定「智慧機械產業推動方案」,整合我國豐沛的新創能量,建立符合市場需求之技術應用與服務能量,以創造我國機械產業下一波成長新動能。   智慧機械之定義係指整合各種智慧技術元素,使其具備故障預測、精度補償、自動參數設定與自動排程等智慧化功能,並具備提供Total Solution及建立差異化競爭優勢之功能;智慧機械的範疇包含建立設備整機、零組件、機器人、智慧聯網、巨量資料、3D列印、網實融合CPS、感測器等產業。而智慧製造係指產業導入智慧機械,建構智慧生產線(具高效率、高品質、高彈性特徵),透過雲端及網路與消費者快速連結,提供大量客製化之產品,形成聯網製造服務體系。   未來我國智慧機械與智慧製造領域仍待研發突破之項目有:工業用等級之視覺/觸覺/力感知等感測模組與驅動控制技術;微型感測元件智慧化;開放性標準網路通訊技術;機器型通訊及安全技術;耐延遲及低耗能機器聯網;健全人機智能介面,提升人機協同安全與效率;智慧聯網共通服務平台、資料分析與效能管理;網實融合智能系統需結合專業分析模型提升準確性及可靠度;機器人智慧整合能力及反應速度;供需產能整合與決策系統等等。

英國資訊委員辦公室提出人工智慧(AI)稽核框架

  人工智慧(Artificial Intelligence, AI)的應用,已逐漸滲透到日常生活各領域中。為提升AI運用之效益,減少AI對個人與社會帶來之負面衝擊,英國資訊委員辦公室(Information Commissioner’s Office, ICO)於2019年3月提出「AI稽核框架」(Auditing Framework for Artificial Intelligence),作為確保AI應用合乎規範要求的方法論,並藉機引導公務機關和企業組織,評估與管理AI應用對資料保護之風險,進而建構一個可信賴的AI應用環境。   AI稽核框架主要由二大面向所構成—「治理與可歸責性」(governance and accountability)以及「AI特定風險領域」(AI-specific risk areas)。「治理與可歸責性」面向,係就公務機關和企業組織,應採取措施以遵循資料保護規範要求的角度切入,提出八項稽核重點,包括:風險偏好(risk appetite)、設計階段納入資料保護及透過預設保護資料(data protection by design and by default)、領導管理與監督(leadership management and oversight)、政策與程序(policies and procedures)、管理與通報架構(management and reporting structures)、文書作業與稽核紀錄(documentation and audit trails)、遵循與確保能力(compliance and assurance capabilities)、教育訓練與意識(training and awareness)。   「AI特定風險領域」面向,則是ICO特別針對AI,盤點下列八項潛在的資料保護風險,作為風險管理之關注重點: 一、 資料側寫之公平性與透明性(fairness and transparency in profiling); 二、 準確性(accuracy):包含AI開發過程中資料使用之準確性,以及應用AI所衍生資料之準確性; 三、 完全自動化決策模型(fully automated decision making models):涉及人類介入AI決策之程度,歐盟一般資料保護規則(General Data Protection Regulation, GDPR)原則上禁止無人為介入的單純自動化決策; 四、 安全性與網路(security and cyber):包括AI測試、委外處理資料、資料重新識別等風險; 五、 權衡(trade-offs):不同規範原則之間的取捨,如隱私保護與資料準確性; 六、 資料最少化與目的限制(data minimization and purpose limitation); 七、 資料當事人之權利行使(exercise of rights); 八、 對廣泛公共利益和權利之衝擊(impact on broader public interests and rights)。   ICO將持續就前述AI特定風險領域,進行更深入的分析,並開放公眾討論,未來亦將提供相關技術和組織上之控制措施,供公務機關及企業組織進行稽核實務時之參考。

OECD發布「促進人工智慧風險管理互通性的通用指引」研究報告

經濟合作發展組織(Organisation for Economic Co-operation and Development,下稱OECD)於2023年11月公布「促進AI風險管理互通性的通用指引」(Common Guideposts To Promote Interoperability In AI Risk Management)研究報告(下稱「報告」),為2023年2月「高階AI風險管理互通框架」(High-Level AI Risk Management Interoperability Framework,下稱「互通框架」)之延伸研究。 報告中主要說明「互通框架」的四個主要步驟,並與國際主要AI風險管理框架和標準的風險管理流程進行比較分析。首先,「互通框架」的四個步驟分別為: 1. 「定義」AI風險管理範圍、環境脈絡與標準; 2. 「評估」風險的可能性與危害程度; 3. 「處理」風險,以停止、減輕或預防傷害; 4.「治理」風險管理流程,包括透過持續的監督、審查、記錄、溝通與諮詢、各參與者的角色和責任分配、建立問責制等作法,打造組織內部的風險管理文化。 其次,本報告指出,目前國際主要AI風險管理框架大致上與OECD「互通框架」的四個主要步驟一致,然因涵蓋範圍有別,框架間難免存在差異,最大差異在於「治理」功能融入框架結構的設計、其細項功能、以及術語等方面,惟此些差異並不影響各框架與OECD「互通框架」的一致性。 未來OECD也將基於上述研究,建立AI風險管理的線上互動工具,用以協助各界比較各種AI風險管理框架,並瀏覽多種風險管理的落實方法、工具和實踐方式。OECD的努力或許能促進全球AI治理的一致性,進而減輕企業的合規負擔,其後續發展值得持續追蹤觀察。

TOP