本文為「經濟部產業技術司科技專案成果」
與時俱進的新興科技法制-美國無人飛行器(UAS)管理法制初探 科技法律研究所 法律研究員 陳世傑 2015年07月30日 壹、事件摘要 因電子與無線傳輸科技的進步,俗稱Drone的無人飛行器(Unmanned Aerial Vehicles,UAV),自美國亞瑪遜公司(Amazon)擬採為運送網路購物商品的工具後,無人飛行器的運用,已逐步從單純娛樂用途跨向商業用途的應用。無人飛行器的廣泛運用,是否可能影響安全、隱私、甚至政府監視的警察國家爭議,已經引起美國各級政府的重視,也紛紛立法加以因應。聯邦議會與各州議會亟思如何在法規上妥善調適,以因應越來越多商用無人飛行器的用途需求與其他公益保護之考量,例如飛航安全、隱私安全、甚至國土安全等,美國已經採取相關法制規劃,以完善UAV之管理。 貳、重點說明 一、美國聯邦管理法規 無人飛行器在美國由其聯邦航空總署(Federal Aviation Administration,FAA)主管,2012年2月14日生效的FAA現代化及改革法(The FAA Modernization and Reform Act of 2012,FMRA),為美國聯邦法律主要的管理法源。 FMRA對無人飛行器所採正式名稱為無人飛行機(Unmanned Aircraft),依其第331節定義,UAS指,而小型UAS(Small unmanned aircraft)則指55磅以下之UAS。 FAA指出,無人飛行系統(Unmanned Aircraft Systems,UAS)依其用途區分為公務用(Public Operations)、民用(Civil Operations)、娛樂用(Model Aircraft)三種,並有不同的管理規定。 公務用無人飛行器使用管理相關聯邦法律,有49 U.S.C. § 40102(a)(41)及49 U.S. Code § 40125就「公務用飛行器」(Public Aircraft)使用範疇之相關規定。 法律規定之公務用無人飛行器,FAA得發給飛航許可(Certificate of Waiver or Authorization,COA),而在其許可之特定空間範圍、操作方式或使用目的下操作公務用無人飛行器。FAA發給公務用無人飛行器之COA時多會附加公共安全之要求,例如不得於人口密集區域使用、避免影響其他飛行器路權(right-of-way rules)的使用。 民用無人飛行器之使用,可向FAA申請兩種使用許可,一為FMRA第333節之特許(Section 333 Exemption),其次為FAA第8130.34號行政命令特別適航性許可(Special Airworthiness Certificate,SAC)。 FMRA第333節之特許規定要求,美國聯邦運輸部得經申請,在一定體積、重量、飛行速度、安全性等要求下,特許申請人以無人飛行器進行商業使用(Certificate of Waiver or Authorization,COA),文前所述Amazon所遞交之申請即為此種COA。 SAC特別適航性許可則是要求申請人,於檢具所申請之飛行系統之硬體結構與軟體開發、控制與其管理(configuration management)之設計、規劃、製造上具適航性之說明以進行SAC申請。 娛樂用無人飛行器之使用,依照FMRA第336節規定,毋須經主管機關許可,惟仍須符合以下規定,包括飛行高度須低於400呎且維持飛行區域之淨空,且飛行器應隨時處於使用者目視可及之範圍。 二、美國各州管理法規 在聯邦層級法律以外,除華盛頓特區已為無人機禁用區(No Drone Zone)外,美國各州對於無人飛行器之使用,也各自有不同的立法。至2015年6月為止,美國共有25州對無人飛行器之定義、使用、管理等已有相關法律施行。2015年美國已有45州計151個法案與無人飛行器之使用管理進行規定。阿肯色州等15州完成立法,阿拉斯加等4州通過提案交付審查,喬治亞洲決議交由州議會成立特別委員會進行無人飛行器法案研究、新墨西哥州則由州參眾兩院通過備忘錄就無人飛行器的使用對於野生動物保護之影響進行研究。 參、事件評析 美國自聯邦乃至各州法規對於UAS之管理密度與保護面向各有不同,惟就聯邦FAA受理申請之情形,與各州之立法進度,顯見UAS此一新興科技所帶來的法制調適已經如火如荼的展開。UAS的逐漸普及所帶來的法規相應調整或跟進的需求,已促使美國聯邦與州政府的重視。甚至除了使用的管制外,有關UAS的輸出,美國國務院亦於2015年2月發布有關軍事用途UAS的出口管制政策,其中也同時對商用無人機之出口進行一定程度之管理,可見無人機技術的進步,未來將逐步帶動法制面從使用管理、產品管理甚至朝向技術管理發展。
法國高等教育暨研究部宣布額外投資新創企業培育計畫,強化產業競爭力與發展深度技術為強化產業競爭力與發展深度技術,法國高等教育暨研究部(Ministère de l'enseignement supérieur et de la recherche)於2023年1月9日宣布將額外投資5億歐元,以培育更多的研究型新創企業。 基於2021年10月12日法國總統宣布的《法國2030投資計畫》(France 2030),法國政府將於五年內投入540億歐元於新創相關事務,且目前已於2022年達到成立25間獨角獸公司的中期目標。為進一步提高學研機構以研發成果衍生新創之數量,讓新創公司數量成長2倍,法國高等教育暨研究部部長Sylvie Retacleau與法國產業部(Ministre chargé de l'Industrie)部長Roland Lescure提出以下三大行動,並額外投資5億歐元執行: (1)建立25個大學創新中心(Pôles Universitaires d'Innovation, PUI):法國政府將投入1.6億歐元,在大學網站上提供創新戰略、單一治理及敏捷方法,藉此激發研發團隊潛力及創意。PUI將在不額外增設法律規範之情況下,與現有政策結合推動上述措施。 (2)透過既有措施推動深度科技:透過i-Lab、法國科技新興獎學金、深度技術發展援助計畫等現有措施,以及增設法國科技實驗室獎學金,加速深度技術發展計畫。此外,未來也將提供6500萬歐元的補助。 (3)加強推廣研究工作及專題研究計畫(Programmes et équipements prioritaires de recherché, PEPR)成果:未來法國政府將投入2.75億歐元,挑選17項研究成果,建立評估研發成果之檢測及支援能力,並依領域性質,研究各領域專利證書、標準化和相關法規。
德國首例因Twitter超連結的裁定出爐根據德國法蘭克福地方法院日前於4月20日的一則假處分裁定(Beschluss vom 20.04.2010, Az. 3-08 O 46/10),禁止被告以超連結方式,讓點取該鏈結的人,得以連結到刊登有損害原告商業信譽的文章頁面。 本件事實起源於一名匿名的網友在不同的網路論壇中,發表刊登有侵害原告商業信譽的言論,而曾經與原告有商業上往來的被告,利用自己Twiiter帳戶,發表超連結,並在鏈結網址下加上「十分有趣」的文字,讓看到該訊息的朋友,都可以點選鏈結連接到這些不利於原告商業信譽的文章、言論。原告因而向法院申請假處分裁定,禁止被告以超連結方式繼續為有損原告商業信譽的行為。 法蘭克福地方法院的這起裁定,被視為是德國國內第一起法院對Twitter等社群網站的警告,德國輿論各界也普遍認為,法院透過裁定對外明白宣示社群網站使用者往往誤認網路社群空間為「半私人場域(須加入好友才得以分享資訊、留言等)」,在自己的帳戶上發表心得、感想、分享文章等行為,還是有構成侵權責任的可能性。 該裁定出爐後,德國各界則開始討論被告設定超連結的行為是否構成網路侵權責任,持贊成意見者認為,即使該違法言論非被告本人所發表,被告設定超連結的行為,也讓自己與該違法言論「合而為一(zueigen gemacht)」,也就是,讓外界以為該違法言論就是被告本人所撰寫刊登;根據德國電信服務法(Telemediengesetz, TMG)第7條規定,內容提供者須為「自己」的言論負擔法律責任。 反對者則拿其他超連結的案例舉出,法院認定被告是否構成網路內容提供者的侵權責任,通常會檢視被告對於該違法言論的內容是否知悉、被告是否違背其檢查監督義務(Überprüfungspflicht),例如被告須為一定行為藉以與原撰文者劃清界線等。但因各該檢驗標準都係由法院依據個案加以認定,讓人無所適從,產生網路侵權行為的判斷標準過於浮動之疑慮,德國國會也因此著手進行電信服務法的修法。
因應ChatGPT人工智慧趨勢,為企業提出營業秘密管理建議2022年11月美國OpenAI公司推出人工智慧大型語言模型ChatGPT,提供全球使用者透過輸入文本方式向ChatGPT提出問題,雖營業秘密不需絕對保密,惟是否會「因向ChatGPT揭露營業秘密而使營業秘密喪失了秘密性」? 依OpenAI公司「非API訪問數據政策」規定,ChatGPT透過OpenAI公司的AI訓練人員審核「使用者上傳至ChatGPT的資訊」,提供ChatGPT反饋,強化ChatGPT進行有效的學習,讓ChatGPT模仿人類語言回覆使用者所提出的問題。在AI訓練人員未將「使用者上傳至ChatGPT的資訊」交由ChatGPT訓練、學習前(上次訓練是在2021年9月),此聊天內容不會成為ChatGPT給其他使用者的回答,此時資訊對於公眾仍具秘密性。依據ChatGPT的使用條款第5(a)條之單方保密義務規定:「OpenAI公司、其子公司及其他第三方公司可能賦予使用者『機密資訊的接觸權限』,但使用者僅限於使用條款所允許的服務中使用該些機密資訊,不得向第三方揭露該機密資訊,且使用者至少應採取合理的注意保護該機密資訊。所謂機密資訊係指OpenAI公司、其子公司及其他第三方公司(1)指定的非公開資訊,或(2)合理情況下,被認定為機密資訊者,比如軟體、規格及其他非公開商業資訊。」。即ChatGPT對於使用者輸入的聊天內容不負保密義務。 公司將程式碼、會議紀錄等敏感資訊與ChatGPT共享,不必然屬於「因揭露營業秘密而使營業秘密喪失秘密性」,考量訓練數據量大,秘密性取決於周遭環境與揭露性質,例如: 1.揭露的資訊類型,比如飲料配方可能會比客戶名單更容易取得。 2.揭露的環境,比如競爭對手、大眾是否能提出具體問題,以致能取得他人聊天內容的營業秘密。 為在ChatGPT的趨勢下確保營業秘密的秘密性,建議企業採取的管理策略如下: 1.透過「資訊分類」以識別可共享的資訊。 2.審核涉及敏感資訊的協議、公司政策及供應商契約。 3.採取實體、數位的資訊保密措施,並留意尊重員工隱私,比如限制接觸某些網站或應用程式,應留意員工的手機是否能繞過此限制。 4.建立公司保密文化,如透過公司培訓、新人入職教育訓練,定期提醒其應負擔的保密義務。 本文同步刊登於TIPS網站(https://www.tips.org.tw)。