日本國土交通省航空局公布日本無人機飛行安全指引

  日本國土交通省航空局於2017年9月12日公布修正版日本無人機飛行安全指引(「無人航空機(ドローン、ラジコン機等)の安全な飛行のためのガイドライン」を改定しました),乃依據修正之航空法規定(平成27年法律第67號)制訂無人機飛行之相關基本規則。

  定義所謂無人機乃指非人搭乘,透過遠距遙控或自動駕駛而飛行之飛機、旋翼飛機、滑翔機及飛艇。而無人機禁止飛行在150公尺以上高空,不得在航空站周邊空域(包含進入),以禁止在人口集中地區之上空(150公尺以下)。

  除經國土交通省同意之例外規則外,無人機之飛行必須在日出後日沒前,且需在直接肉眼目視範圍內之監視下,與第三人或他人建築物、車輛等物體應距離30公尺以上,並不得在祭拜或假日等人群聚集之場所上空飛行,也不得輸送爆裂物等危險物品,亦不得從無人機上投擲物品。另外應注意事項,例如飛行場所除了航空站周邊外,直升機等降落可能之場所、迫降場所、高速公路或高速鐵路等、鐵路周邊或車道周邊等、高壓電線、變電所、電波塔及無線電設施等附近應注意飛行安全。

  於飛行之際,不得飲酒等造成不當操作,飛行前應注意天氣狀況、飛機無損害或故障、電池燃料充足等,並確保周邊無障礙物,並應迴避與飛機或無人飛機之衝突。平時應保持無人機之狀況良好,且維持日常操作良好技能,並鼓勵投保人身或財產保險。

相關連結
※ 日本國土交通省航空局公布日本無人機飛行安全指引, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7898&no=0&tp=1 (最後瀏覽日:2026/02/16)
引註此篇文章
你可能還會想看
歐洲議會對再生能源利用達成協議

  為重新對各類再生能源與用於大眾運輸工具之生質燃料使用量確立具約束力之目標,歐洲議會下之工業及能源委員會於2008(今)年9月11日決定批准一項跨黨派協議案。   今年年初,歐盟執委會曾遞交一項促進歐盟境內對再生能源使用量之建議案,亦即設定至2020年時,歐盟境內再生能源使用量應達總能源使用量之20%;同時,該建議案也包含了一項關於生質燃料使用量亦應達到10%之目標。不過,在考慮關於不斷上揚之糧食價格、生物多樣性之消失及廣受質疑之CO2減量價值等因素後,也導致許多團體要求降低執委會最初設定之目標。而經過數月詳細地分析2千多份修正案報告後,執委會再生能源建議案報告起草人Turmes,在今年9月中旬宣佈,該項建議案目前現已獲得跨黨派支持。   於Turmes報告中,其建議應對生質燃料之使用訂立階段性目標:即(1)至2015年時應達到5%;及(2)至2020年時則應增加至10%;同時,其還特定,就未來達成生質燃油使用比例目標而言,至少有40%應要透過利用「非以糧食或飼料競爭性」為原料之第二代生質燃料,或使用綠色電能與氫能源環保車而來;至於其他種類生質燃油之利用,則應須在符合嚴格之環境永續性標準下,方能一併被納入計算。而為支持年初所提之建議案,德國、英國及波蘭等國也在6月份提出一項新的彈性機制:即在會員國間可透過合作型計畫來達成各自之目標。此外,對至2020年未達目標之會員國,歐洲議會成員將另批准一套「財務性懲罰原則」來處理之;同時,就懲罰所取得之款項,也將成立一項獎勵專款來激勵超過目標之國家。   不過,綠色組織團體卻認為利用生質燃料因具後述缺點如:(1)成本昂貴、(2)對氣候保護方面並無任何助益、及(3)利用不符永續性標準之生質燃油也僅是增加生物多樣性流失與糧食價格而已,故而對於議會批准該協議案感到失望。

美國藥品學會建議調整HIPAA隱私權規範以兼顧醫療研究及隱私保護

  隸屬美國科學院(National Academy of Sciences)之藥品學會(Institute of Medicine)於2009年2月4日發表一份研究報告,指出美國醫療保險可攜及責任法的隱私權規範(HIPAA, Privacy Rule),對於醫療研究中有關個人健康資訊之取得及利用的規定未盡周全,不僅可能成為進行醫療研究時的障礙,亦未能完善保障個人健康資訊。   在目前的規範架構下,是否允許資訊主體概括授權其資料供後續研究利用,並不明確;另外,在以取得資料主體之授權為原則,例外不需取得授權但必須由審查委員會判斷其妥適性的情況下,亦未有足夠明確的標準可資審查委員會判斷依循,此些問題不僅使得醫療研究中之資料取得及運用,產生若干疑慮,亦突顯個人相關健康資料保護之不足。   該報告建議國會應立法授權主管機關制訂一套新的準則,將個人隱私、資料安全及資訊運用透明化等標準,一體適用於所有醫療相關研究的資料取得及利用上;在未來的新準則中,應促進去名化醫療資訊之運用,同時對於未取得資料主體授權的資料逆向識別(re-identification)行為,應增設罰則;此外,審查委員會在判斷得否不經資料主體授權而以其資料進行研究之妥適性時,亦應納入道德考量因素,倘若研究係由聯邦層級的組織所主導,則研究團隊應先證明其已採取充分保護資料隱私及安全的措施,藉以平衡隱私權保護與醫療研究的拉鋸。

日本經產省預計向國會提出「不正競爭防止法」修正草案進行審議

以色列發布人工智慧監管與道德政策

以色列創新、科學及技術部(Ministry of Innovation, Science and Technology)於2023年12月17日公布以色列首個關於人工智慧的監管和道德政策,在各行各業將人工智慧作為未來發展方向的趨勢下,以多元、協作、原則、創新的理念為其導向,為了化解偏見、人類監督、可解釋性、透明度、安全、問責和隱私所帶來的衝擊,以色列整合政府部門、民間組織、學術界及私部門互相合作制定政策,以求解決人工智慧的七個挑戰,帶領以色列與國際接軌。 該人工智慧政策提出具體政策方向以制定措施,其中具有特色的三項為: 1. 軟性監管:人工智慧政策採取軟性監管制度,以OECD人工智慧原則(OECD AI Principles)為基礎,採行制定標準、監督與自律等方式促進人工智慧永續發展,注重以人為本的道德原則,強調創新、平等、可靠性、問責性。 2. 人工智慧政策協調中心(AI Policy Coordination Center):邀集專家學者成立跨部門的人工智慧政策協調中心,進行人工智慧政策研議,向政府部門監管提出建言,為人工智慧的開發使用建立風險管理,並代表國家參與國際論壇。 3. 公眾參與及國際合作:政府機關與監管機構舉辦人工智慧論壇,提出人工智慧的議題與挑戰,邀請相關人士參與討論,並積極參與國際標準制定,進行國際合作。 我國科技部在2019年邀集各領域專家學者研議提出「人工智慧科研發展指引」,強調以人為本、永續發展、多元包容為核心,以八大指引為標竿,推動人工智慧發展。我國已有跨部會溝通會議對於人工智慧法制政策進行研討,可觀察各國軟性監管措施作為我國人工智慧風險管理及產業政策參考,與國際脈動建立連結。

TOP