日本政府對於「小型無人機進階安全確保制度」進行研議,並研提「航空法」修正建議

  日本政府於2016年1月5日成立「小型無人機進階安全確保制度設計相關小組委員會」(小型無人機の更なる安全確保のための制度設計に関する分科会),聚焦無人機飛安方面之實務議題。會議由内閣官房内閣参事官擔任議長,並由國土交通省航空局協助辦理,民間參與者則多為相關產業公協會,目前規劃每兩個月開1-2次會議,其運行方式包括:原則上為非公開會議,其會議資料將於會後公開,但若議長認有必要,則得決定一部或全部不公開;此外,對於委員會成員以外的民間企業及專家學者之意見,亦應聽取。

  為更進一步確保小型無人機於飛行時之安全性,本次會議對「航空法」提出如下修正建議:
(1)除「航空法」第一百三十二條之二所規範之飛行方式及禁飛區域外,尚有其他相關飛安重要事項亦應注意,例如:機體本身之缺陷、操控者失誤、不可預期的天候變化、機體重量等(一定重量以上之無人機,對於機體性能及操控者技術應有更高要求,未來可思考訂定罰則或提供擔保)。
(2)對於機場周邊應有比現行法更嚴格之規範,除因此處操控無人機容易誤入禁區外,該範圍以內通常是飛安事故搜救區,恐妨害搜救之進行。
(3)關於禁區內飛行許可之審查,應包含:機體機能與性能、操控者知識、技術與經歷。
(4)對於商業、營業用無人機,應有更高的安全性要求。但何謂商業、營業用之定義及更高安全性究何所指須有更明確的標準!

相關連結
※ 日本政府對於「小型無人機進階安全確保制度」進行研議,並研提「航空法」修正建議, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7221&no=0&tp=1 (最後瀏覽日:2026/03/17)
引註此篇文章
你可能還會想看
歐盟法院裁定連結未授權影音串流網站之多媒體播放器違反著作權指令

  歐盟法院裁定連結未授權影音串流網站之多媒體播放器違反著作權指令 歐盟法院於2017年4月26日就Stichting Brein v Wullems案作出裁定,依據2001年的「歐洲議會與執委會關於資訊社會中著作權及著作鄰接權調和指令(Directive No. 2001/29/EC of the European Parliament and of the Council of 22 May 2001 on the harmonisation of certain aspects of copyright and related rights in the information society)」,認定販售多媒體播放器,其上安裝附加軟體使用戶可透過建立好的選單,連結到含有未獲著作權人同意影音授權的第三方串流網站之行為,符合著作權指令中「對公眾傳輸(communication to the public)」的定義。歐盟著作權指令第3條第1項並規定,會員國應提供著作權人授權或禁止任何對「公眾傳輸」其作品的權利,包含使用有線或無線的途徑使公眾可以任意地在任何時間地點接觸這些著作。   歐盟法院指出「公眾傳輸」的概念應包含兩個部分:「傳輸行為」以及「公眾。「傳輸行為」包含了各種形式的傳輸或再次傳輸,不管是透過有線或是無線;並且只要是讓公眾可得接觸作品的行為,即構成「傳輸行為」。至於「公眾」的意義為不特定的多數人,並應考慮潛在接觸用戶的可能性,且不僅是從單一時點接觸用戶多寡評斷,而是應觀察連續性累積的情況。    歐盟法院認定此販售多媒體撥放器之行為,考量該行為對於該著作一般利用的影響,對著作人合法權益產生不合理的侵害因而不符合該指令的重製權例外,故對著作權產生侵害。

美國總統發布行政命令,促進資料中心基礎建設之發展

2025年7月23日,川普總統簽署行政命令,加速資料中心基礎建設(data center infrastructure)之發展。適用該命令之資料中心,需新增超過100百萬瓦(MW)電力負載,並新增瓦數專用於人工智慧推論、訓練、模擬或產生合成資料。 行政命令內容主要包含以下事項: 1. 政府將為合格資料中心基礎建設提供財政支持,如貸款、貸款擔保、補助金(grants)、稅收優惠(tax incentives)或承購協議(offtake agreements)。本行政命令所稱之合格資料中心基礎建設,其本體或相關設施需符合以下條件之一: (1) 業者承諾投資超過五億美元,五億以上之具體門檻以美國商務部長認定為準。 (2) 新增超過100百萬瓦(MW)之電力負載。 (3) 有助於維護國家安全。 (4) 經美國國防部、內政部、商務部或能源部之部長指定。 2. 撤銷拜登總統發布之14141號行政命令「推進美國在人工智慧基礎建設領域的領導地位」。該命令原要求在聯邦土地建設人工智慧資料中心者須提供關於多元與氣候議題之說明。 3. 指示政府機關簡化合格資料中心基礎建設的環境審查和許可。 (1) 相關政府機關應向環境品質委員會(Council on Environmental Quality)確定依《國家環境政策法》(National Environmental Policy Act),可以加速合格資料中心基礎建設建置的環境審查豁免措施。 (2) 環境品質委員會應考量資料中心基礎建設對環境產生之影響,制定新的環境審查豁免措施。 4. 對符合FAST-41計畫(FAST-41 program)要求之資料中心基礎建設,加速其取得建設相關許可之過程。 該計畫名稱及內涵緣起於《修復美國地面運輸法》第41章節(Title 41 of the Fixing America's Surface Transportation Act)。一般而言,參與該計畫之建設,需滿足指定投資額、受指定組織贊助、於指定地點興建,或合乎特定環境法規等要求。合乎計畫要求之建設,可與主管機關協調取得建設相關許可之時間,並由聯邦許可改善指導委員會(The Federal Permitting Improvement Steering Council)下屬團隊協助進行專案管理。 5. 環境保護局(Environmental Protection Agency)局長應依法定權限,加速確認可供合格資料中心基礎建設使用的棕地(brownfields)。 依美國環境保護局定義,棕地是指含有危險物質、污染物的土地,因開發利用困難,需進行養護、排除開發障礙,或以其他方式開發。 6. 內政部、能源部應依法確定適合用於建設資料中心的土地,適當授權合格資料中心基礎建設業者在聯邦土地上進行建造。 參酌該行政命令意指,美國政府期許減少環境政策對人工智慧資料中心及相關設施的影響,透過快速推動建設進程,確保美國經濟繁榮,以及在科學、數位經濟領域的領導地位。

澳洲專利法新制上路

  澳洲於去(2012)年通過「智慧財產權法修正案」 (Intellectual Property Laws Amendment Act 2012),主要修正條文已於今(2013)年4月15日起正式施行。此次的修法大幅度提高了可專利性的審查標準,為澳洲專利制度帶來重大變革。新法適用於2013年4月15日以後提出實體審查申請之專利申請案,在新法施行後專利申請案將受到更嚴格的審查。   重要修正如下: ‧新法去除了舊專利法關於先前技術的地理區域範圍的限制。將其他各國的先前技術也一併納入考量,規範較舊法更為國際化。 ‧新法只要求所屬技術領域具有通常知識者「可能了解」且「技術相關」即可,放寬了用來判斷進步性根據之先前技術標準,使得符合進步性的要求較舊法為提高。 ‧新專利法要求專利說明書需揭露系爭發明特定的(specific)、主要的(substantial)、可信的(credible)用途,以滿足實用性的要件。此外,專利說明書上之描述必須清楚且完整,使所屬技術領域中具有通常知識者得以了解文件內容並可據以實施, ‧新法對於可專利性的認定改採「概然性權衡」(balance of probabilities)標準,亦即若專利審查員認為,未來在進行專利有效性審理,法院有超過50%的機率認定系爭發明不具可專利性時,審查委員即得駁回該申請案。 ‧增加了修正專利說明書時禁止加入新事項的限制規定,對於專利的申請益趨嚴格。   此次修法是澳洲專利制度近20年以來的最大變革,經過此次修正可預見未來申請取得澳洲專利的難度將大幅提升。更值得注意的是,由此次修正,可發現澳洲專利制度已向大多數國家的規範靠攏,使得澳洲專利法與國際間其他國家如美國、歐盟等國家的規定更為協調一致。

英國發布人工智慧網路資安實務守則

英國政府於2025年1月31日發布「人工智慧網路資安實務守則」(Code of Practice for the Cyber Security of AI,以下簡稱「實務守則」),目的是提供人工智慧(AI)系統的網路資安指引。該實務守則為英國參考國際上主要標準、規範後所訂定之自願性指引,以期降低人工智慧所面臨的網路資安風險,並促使人工智慧系統開發者與供應商落實基本的資安措施,以確保人工智慧系統的安性和可靠性。 由於人工智慧系統在功能與運作模式上與傳統網路架構及軟體有明顯的不同,因此產生新的資安風險,主要包含以下: 1. 資料投毒(Data Poisoning):在AI系統的訓練資料中蓄意加入有害或錯誤的資料,影響模型訓練結果,導致人工智慧系統產出錯誤推論或決策。 2. 模型混淆(Model Obfuscation):攻擊者有意識地隱藏或掩飾AI模型的內部運作特徵與行為,以增加系統漏洞、引發混亂或防礙資安管理,可能導致AI系統的安全性與穩定性受損。 3. 輸入間接指令(Indirect Prompt Injection):藉由輸入經精心設計的指令,使人工智慧系統的產出未預期、錯誤或是有害的結果。 為了提升實務守則可操作性,實務守則涵蓋了人工智慧生命週期的各階段,並針對相關角色提出指導。角色界定如下: 1. 人工智慧系統開發者(Developers):負責設計和建立人工智慧系統的個人或組織。 2. 人工智慧系統供應鏈(Supply chain):涵蓋人工智慧系統開發、部署、營運過程中的的所有相關個人和組織。 實務守則希望上述角色能夠參考以下資安原則,以確保人工智慧系統的安全性與可靠性: 1. 風險評估(Risk Assessment):識別、分析和減輕人工智慧系統安全性或功能的潛在威脅的過程。 2. 資料管理(Data management):確保AI系統整個資料生命週期中的資料安全及有效利用,並採取完善管理措施。 3. 模型安全(Model Security):在模型訓練、部署和使用階段,均應符合當時的技術安全標準。 4. 供應鏈安全(Supply chain security):確保AI系統供應鏈中所有利益相關方落實適當的安全措施。 「人工智慧網路資安實務守則」藉由清晰且全面的指導方針,期望各角色能有效落實AI系統安全管控,促進人工智慧技術在網路環境中的安全性與穩健發展。

TOP