無人機(Drone)也就是無人飛機或無人飛行器(Unmanned Aerial Vehicles, UAV),具備自動飛行系統的簡易模型飛機,自動飛行系統內可能包含一電腦作業系統、一套衛星導航裝置、羅盤功能、氣壓高度計、偵測器及設計飛行之軟體等等,簡稱無人機。茲因電子與無線傳輸科技進步,無人機在國際間掀起流行,近來無人機之使用引發安全疑慮,促進各國重視無人機的使用與法制管理。目前國際間陸續針對無人機立法管理的有美國、日本及歐盟等,我國行政院亦於2015年9月24日通過「民用航空法」部分條文修正草案因應無人機遙控管理規範。觀諸國際立法及修法趨勢,無人航空器之管理,包括無人機的體積、重量、使用用途、使用區域限制、使用時間限制、飛行速度或方法、飛行高度限制等,且亦須重視安全、隱私、資料保護、損害責任與保險相關問題,以及無人機所有權明確判別之方式等,因此我國未來就無人機相關管理規範或可參考先進國家重要管理規定,擬定更適合我國之「無人航空器管理規則」,俾利發展新興科技無人機市場時,同時能兼顧確保個人、國家與領空安全之規劃。
本文為「經濟部產業技術司科技專案成果」
德國聯邦內閣2020年6月24日通過「數位家庭給付法」草案(Entwurf eines Gesetzes zur Digitalisierung von Familienleistungen),該草案由德國聯邦內政、建設及家園部(Bundesministeriums des Innern, für Bau und Heimat, BMI)及德國聯邦家庭、老年、婦女與青年部(Bundesministeriums für Familie, Senioren, Frauen und Jugend, BMFSFJ)共同提出。草案目的在使多項家庭津貼與補助可以透過網路科技整併至單一申請窗口;利用數位科技的電子治理模式,簡化繁複的紙本申請流程,使用「一鍵式」(ein Klick)服務讓民眾可透過電腦或廣為普及的智慧型手機直接申請。 「數位家庭給付法」草案主要規範內容下列3個面向: 整合與家庭相關之津貼或補助項目:為減輕新生兒父母或監護人(Erziehungsberechtigte)的照顧負擔,BMI及BMFSFJ欲將姓名登記、出生通報、父母津貼(Elterngeld)、育兒津貼(Kindergeld)及兒童補助(Kinderzuschlag)等5項服務合併申請(Kombiantrag),匯整至單一申請窗口。 提供機關間個資合法傳輸基礎:由於申請前述的津貼或補助項目時,申請人須向聯邦政府、各邦政府、法定健康保險機構或雇用人申請相關證明文件,未來處理公共服務之機關經申請人同意合法授權下,得跨部門調閱申請服務相關之資料。 符合資訊安全及個資保護的基礎:該法要求應建立可受信賴的數位授權控管措施,且得驗證數位身分之安全層級,相關措施應符合德國「網路近用法」(Onlinezugangsgesetz, OZG)第8條及歐盟「一般個人資料保護規則」(General Data Protection Regulation, GDPR)的規範要求。 聯邦內閣目前已將該草案提交予聯邦議會審查,預計最快自2022年1月1日分階段實施。然而,德國聯邦政府考量新冠肺炎疫情期間,懷孕婦女或年輕父母採用書面申請,將大幅提高感染COVID-19病毒的風險。因此,該法允許合併申請出生證明、補助或津貼,在今年(2020年)於不來梅邦(Bremen)啟動試辦計畫,另預計明年(2021年)將於其他邦展開相關電子化的申請服務。
美國科羅拉多州通過《人工智慧消費者保護法》2024年5月17日,科羅拉多州州長簽署了《人工智慧消費者保護法》(Consumer Protections for Artificial Intelligence Act,Colorado AI Act,下簡稱本法),其內容將增訂於《科羅拉多州修訂法規》(Colorado Revised Statutes,簡稱CRS)第6篇第17部分,是美國第一部廣泛對AI規範的法律,將於2026年2月1日生效。 本法旨在解決「高風險人工智慧系統」的演算法歧視(Algorithmic Discrimination)的問題 ,避免消費者權益因為演算法之偏見而受到歧視。是以,本法將高風險AI系統(High-risk Artificial Intelligence System)定義為「部署後作出關鍵決策(Consequential Decision)或在關鍵決策中起到重要作用的任何AI系統」。 而後,本法藉由要求AI系統開發者(Developers)與部署者(Deployers)遵守「透明度原則」與「禁止歧視原則」,來保護消費者免受演算法歧視。規定如下: (一)系統透明度: 1.開發者應向部署者或其他開發者提供該系統訓練所使用的資料、系統限制、預期用途、測試演算法歧視之文件以及其他風險評估文件。 2.部署者應向消費者揭露高風險人工智慧系統的預期用途,也應在高風險人工智慧系統做出決策之前向消費者提供聲明,聲明內容應該包含部署者之聯絡方式、該系統的基本介紹、部署者如何管理該系統可預見之風險等資訊。 (二)禁止歧視: 1.開發者應實施降低演算法歧視之措施,並應協助部署者理解高風險人工智慧系統。此外,開發者也應該持續測試與分析高風險人工智慧系統可能產生之演算法歧視風險。若開發者有意修改該系統,應將更新後的系統資訊更新於開發者網站,並須同步提供給部署者。 2.部署者應該實施風險管理計畫,該風險管理計畫應包含部署者用於識別、紀錄降低演算法歧視風險之措施與負責人員,且風險管理計畫應定期更新。在制定風險管理計畫時,必須參考美國商務部國家標準暨技術研究院(National Institute of Standards and Technology, NIST)的《人工智慧風險管理框架》(AI Risk Management Framework, AI RMF 2.0)與ISO/IEC 42001等風險管理文件。 美國普遍認為科羅拉多州的《人工智慧消費者保護法》為目前針對人工智慧系統最全面之監管法規,可作為其他州有關人工智慧法規的立法參考,美國各州立法情況與作法值得持續關注。
歐盟啟用半導體供應鏈示警系統,監測各成員國半導體供應鏈狀況歐盟執委會(European Commission, EC)於2023年5月10日宣布啟用《歐盟晶片法案》(EU Chips Act)三支柱之一的半導體供應鏈示警系統(Semiconductor Alert System),其目的在於監測半導體供應鏈短缺之問題。 根據《歐盟晶片法案》,歐盟各成員國的半導體供應鏈主管機關須定期執行半導體供應鏈的觀測任務,以隨時確認半導體供應鏈之狀況。然而,由於歐盟係由眾多不同的國家所組成,各成員國間訊息的流通相比於其他單一國家可能較為緩慢,故EC決定創建半導體供應鏈示警系統,交換半導體供應鏈資訊以解決上述問題。在此系統中,私人企業得單獨對所處產業中的早期半導體短缺進行回報,惟個別產業常常單獨誇大或高估危機的發生可能性,對此,EC成立了歐盟半導體專家小組(European Semiconductor Expert Group, ESEG),協助收集各半導體產業與成員國所回報之訊息,除將其用於建立風險評估外,亦彙整並分析成有價值的資訊後再分享給各成員國。 若資訊收集完成後,ESEG或EC察覺歐盟確實有發生半導體供應鏈崩潰的危險,EC將召開特別委員會會議(extraordinary board meeting),共同尋求解決方案,包含聯合政府採購(joint procurement),或與第三國進行合作,以合力解決半導體供應鏈之危機。
ENUM架構之初步研究-以奧地利ENUM Trial為例