與時俱進的新興科技法制-美國無人飛行器(UAS)管理法制初探
科技法律研究所
法律研究員 陳世傑
2015年07月30日
壹、事件摘要
因電子與無線傳輸科技的進步,俗稱Drone的無人飛行器(Unmanned Aerial Vehicles,UAV),自美國亞瑪遜公司(Amazon)擬採為運送網路購物商品的工具後,無人飛行器的運用,已逐步從單純娛樂用途跨向商業用途的應用。無人飛行器的廣泛運用,是否可能影響安全、隱私、甚至政府監視的警察國家爭議,已經引起美國各級政府的重視,也紛紛立法加以因應。聯邦議會與各州議會亟思如何在法規上妥善調適,以因應越來越多商用無人飛行器的用途需求與其他公益保護之考量,例如飛航安全、隱私安全、甚至國土安全等,美國已經採取相關法制規劃,以完善UAV之管理。
貳、重點說明
一、美國聯邦管理法規
無人飛行器在美國由其聯邦航空總署(Federal Aviation Administration,FAA)主管,2012年2月14日生效的FAA現代化及改革法(The FAA Modernization and Reform Act of 2012,FMRA),為美國聯邦法律主要的管理法源。
FMRA對無人飛行器所採正式名稱為無人飛行機(Unmanned Aircraft),依其第331節定義,UAS指,而小型UAS(Small unmanned aircraft)則指55磅以下之UAS。
FAA指出,無人飛行系統(Unmanned Aircraft Systems,UAS)依其用途區分為公務用(Public Operations)、民用(Civil Operations)、娛樂用(Model Aircraft)三種,並有不同的管理規定。
公務用無人飛行器使用管理相關聯邦法律,有49 U.S.C. § 40102(a)(41)及49 U.S. Code § 40125就「公務用飛行器」(Public Aircraft)使用範疇之相關規定。
法律規定之公務用無人飛行器,FAA得發給飛航許可(Certificate of Waiver or Authorization,COA),而在其許可之特定空間範圍、操作方式或使用目的下操作公務用無人飛行器。FAA發給公務用無人飛行器之COA時多會附加公共安全之要求,例如不得於人口密集區域使用、避免影響其他飛行器路權(right-of-way rules)的使用。
民用無人飛行器之使用,可向FAA申請兩種使用許可,一為FMRA第333節之特許(Section 333 Exemption),其次為FAA第8130.34號行政命令特別適航性許可(Special Airworthiness Certificate,SAC)。
FMRA第333節之特許規定要求,美國聯邦運輸部得經申請,在一定體積、重量、飛行速度、安全性等要求下,特許申請人以無人飛行器進行商業使用(Certificate of Waiver or Authorization,COA),文前所述Amazon所遞交之申請即為此種COA。
SAC特別適航性許可則是要求申請人,於檢具所申請之飛行系統之硬體結構與軟體開發、控制與其管理(configuration management)之設計、規劃、製造上具適航性之說明以進行SAC申請。
娛樂用無人飛行器之使用,依照FMRA第336節規定,毋須經主管機關許可,惟仍須符合以下規定,包括飛行高度須低於400呎且維持飛行區域之淨空,且飛行器應隨時處於使用者目視可及之範圍。
二、美國各州管理法規
在聯邦層級法律以外,除華盛頓特區已為無人機禁用區(No Drone Zone)外,美國各州對於無人飛行器之使用,也各自有不同的立法。至2015年6月為止,美國共有25州對無人飛行器之定義、使用、管理等已有相關法律施行。2015年美國已有45州計151個法案與無人飛行器之使用管理進行規定。阿肯色州等15州完成立法,阿拉斯加等4州通過提案交付審查,喬治亞洲決議交由州議會成立特別委員會進行無人飛行器法案研究、新墨西哥州則由州參眾兩院通過備忘錄就無人飛行器的使用對於野生動物保護之影響進行研究。
參、事件評析
美國自聯邦乃至各州法規對於UAS之管理密度與保護面向各有不同,惟就聯邦FAA受理申請之情形,與各州之立法進度,顯見UAS此一新興科技所帶來的法制調適已經如火如荼的展開。UAS的逐漸普及所帶來的法規相應調整或跟進的需求,已促使美國聯邦與州政府的重視。甚至除了使用的管制外,有關UAS的輸出,美國國務院亦於2015年2月發布有關軍事用途UAS的出口管制政策,其中也同時對商用無人機之出口進行一定程度之管理,可見無人機技術的進步,未來將逐步帶動法制面從使用管理、產品管理甚至朝向技術管理發展。
本文為「經濟部產業技術司科技專案成果」
依據2013年11月27日通過之藥物供應鏈安全法(Drug Supply Chain Security Act, DSCSA),美國食品與藥物管理局(US Food and Drug Administration, FDA)於2019年2月7日公布新的領航計畫(Pilot Program)。此計畫主要的目標在於發展電子協同運作系統(electronic, interoperable system)以降低不合規範的藥物於市場流通的可能性,並提升患者的用藥安全。 此運作系統預計於2023年開始正式實施,其主要的功能包含辨識(identify)或追蹤處方藥物(prescription drugs)於供應鏈中的流通狀態,以及排除非法藥物進入供應鏈。於後者的情形,此運作系統將同時協助相關主管機關在非法藥物於市場中流通時迅速反應。FDA進一步指出,為達到這些目的,將引入區塊鏈(blockchain)等已使用在全球食品供應鏈(global food supply chains)的管理技術,以促進系統運作過程中的可追蹤性(traceability)及準確性。 此計畫於2019年2月8日到3月11日間接受加入申請,FDA鼓勵供應鏈中的相關人員,包含製造商(manufacturers)、再包裝商(repackagers)及其他利害關係人(other stakeholders)加入並試行計畫中開發的運作系統等技術,以加強產品使用狀況的管理。此外,FDA未來將持續公布相關的指引草案,如藥物辨識指標(product identifiers)等,以提升產業利用性及藥物使用的安全性。
WIPO的廣播協議激怒了podcasters英國支持一項由智慧財產權組織(World Intellectual Property Organization/WIPO)草擬的廣電協議(Treaty on the Protection of Broadcasting Organizations),引起一陣反對聲浪。反對者聲稱,這無疑是送給大財團一項操控媒體內容製作的新權利。 2006年6月21日,在西班牙召開的此項協議的討論會議,賦予無線、有線廣電業者和網路廣播業者一項全新的智慧財產權利。業者將對他們所傳輸的任何作品,擁有「五十年、類似著作權的權利(copyright-like rights)」。此協議的目的是為了讓法律更合乎時代性,特別是要處理數位傳送上所產生剽竊數位訊號的問題。不過,網路廣播業者和podcasters卻擔心,如果WIPO將該規範擴張到網路,將使原無需經過授權散播的作品,或者內容是獲得「Creative Commons」授權,可無限制次數的發表,在某些情況下更可不付費的作品,反將經過網路廣播的傳送,讓一些團體組織獲得新的權利。如此一來,恐怕除了限制民眾獲取文化知識的自由外,更會讓那些原屬於創作者和公眾的權利,落入廣電業者手中。Podcasters認為,podcasting 和廣播不能相提並論,更不該受同樣法規的規範。
用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限用ChatGPT找法院判決?從Roberto Mata v. Avianca, Inc.案淺析生成式AI之侷限 資訊工業策進會科技法律研究所 2023年09月08日 生成式AI是透過研究過去資料,以創造新內容和想法的AI技術,其應用領域包括文字、圖像及影音。以ChatGPT為例,OpenAI自2022年11月30日發布ChatGPT後,短短二個月內,全球月均用戶數即達到1億人,無疑成為民眾日常生活中最容易近用的AI科技。 惟,生成式AI大量使用後,其中的問題也逐漸浮現。例如,ChatGPT提供的回答僅是從所學習的資料中統整歸納,無法保證資料的正確性。Roberto Mata v. Avianca, Inc.案即是因律師利用ChatGPT撰寫訴狀,卻未重新審視其所提供判決之正確性,以致後續引發訴狀中所描述的判決不存在爭議。 壹、事件摘要 Roberto Mata v. Avianca, Inc.案[1]中,原告Roberto Mata於2019年8月搭乘哥倫比亞航空從薩爾瓦多飛往紐約,飛行過程中膝蓋遭空服員的推車撞傷,並於2022年2月向法院提起訴訟,要求哥倫比亞航空為空服員的疏失作出賠償;哥倫比亞航空則主張已超過《蒙特婁公約》(Montreal Convention)第35條所訂之航空器抵達日起兩年內向法院提出損害賠償之請求時效。 R然而,法院審理過程中發現原告訴狀內引用之六個判決無法從判決系統中查詢,進而質疑判決之真實性。原告律師Steven A. Schwartz因而坦承訴狀中引用的六個判決是ChatGPT所提供,並宣稱針對ChatGPT所提供的判決,曾多次向ChatGPT確認該判決之正確性[2]。 貳、生成式AI應用之潛在風險 雖然運用生成式AI技術並結合自身專業知識執行特定任務,可能有助於提升效率,惟,從前述Roberto Mata v. Avianca, Inc.案亦可看出,依目前生成式AI技術之發展,仍可能產生資訊正確性疑慮。以下彙整生成式AI應用之8大潛在風險[3]: 一、能源使用及對環境危害 相較於傳統機器學習,生成式AI模型訓練將耗費更多運算資源與能源。根據波士頓大學電腦科學系Kate Saenko副教授表示,OpenAI的GPT-3模型擁有1,750億個參數,約會消耗1,287兆瓦/時的電力,並排放552噸二氧化碳。亦即,每當向生成式AI下一個指令,其所消耗的能源量相較於一般搜尋引擎將可能高出4至5倍[4]。 二、能力超出預期(Capability Overhang) 運算系統的黑盒子可能發展出超乎開發人員或使用者想像的隱藏功能,此發展將會對人類帶來新的助力還是成為危險的阻力,則會隨著使用者之間的相互作用而定。 三、輸出結果有偏見 生成式AI通常是利用公開資料進行訓練,若輸入資料在訓練時未受監督,而帶有真實世界既存的刻板印象(如語言、種族、性別、性取向、能力、文化等),據此建立之AI模型輸出結果可能帶有偏見。 四、智慧財產權疑慮 生成式AI進行模型訓練時,需仰賴大量網路資料或從其他大型資料庫蒐集訓練資料。然而,若原始資料來源不明確,可能引發取得資料未經同意或違反授權條款之疑慮,導致生成的內容存在侵權風險。 五、缺乏驗證事實功能 生成式AI時常提供看似正確卻與實際情形不符的回覆,若使用者誤信該答案即可能帶來風險。另外,生成式AI屬於持續動態發展的資訊生態系統,當產出結果有偏誤時,若沒有大規模的人為干預恐難以有效解決此問題。 六、數位犯罪增加與資安攻擊 過去由人工產製的釣魚郵件或網站可能受限於技術限制而容易被識破,然而,生成式AI能夠快速建立具高度說服力的各種擬真資料,降低詐騙的進入門檻。又,駭客亦有可能在不熟悉技術的情況下,利用AI進一步找出資安弱點或攻擊方法,增加防禦難度。 七、敏感資料外洩 使用雲端服務提供商所建立的生成式AI時,由於輸入的資料存儲於外部伺服器,若要追蹤或刪除有一定難度,若遭有心人士利用而導致濫用、攻擊或竄改,將可能產生資料外洩的風險。 八、影子AI(Shadow AI) 影子AI係指開發者未知或無法控制之AI使用情境。隨著AI模型複雜性增加,若開發人員與使用者未進行充分溝通,或使用者在未經充分指導下使用 AI 工具,將可能產生無法預期之風險。 參、事件評析 在Roberto Mata v. Avianca, Inc.案中,法院關注的焦點在於律師的行為,而非對AI技術使用的批判。法院認為,隨著技術的進步,利用可信賴的AI工具作為協助用途並無不當,惟,律師應踐行其專業素養,確保所提交文件之正確性[5]。 當AI科技發展逐漸朝向自主與獨立的方向前進,仍需注意生成式AI使用上之侷限。當個人在使用生成式AI時,需具備獨立思考判斷的能力,並驗證產出結果之正確性,不宜全盤接受生成式AI提供之回答。針對企業或具高度專業領域人士使用生成式AI時,除確認結果正確性外,更需注意資料保護及治理議題,例如建立AI工具合理使用情境及加強員工使用相關工具之教育訓練。在成本能負擔的情況下,可選擇透過企業內部的基礎設施訓練AI模型,或是在訓練模型前確保敏感資料已經加密或匿名。並應注意自身行業領域相關法規之更新或頒布,以適時調整資料使用之方式。 雖目前生成式AI仍有其使用之侷限,仍應抱持開放的態度,在技術使用與風險預防之間取得平衡,以能夠在技術發展的同時,更好地學習新興科技工具之使用。 [1]Mata v. Avianca, Inc., 1:22-cv-01461, (S.D.N.Y.). [2]Benjamin Weiser, Here’s What Happens When Your Lawyer Uses ChatGPT, The New York Times, May 27, 2023, https://www.nytimes.com/2023/05/27/nyregion/avianca-airline-lawsuit-chatgpt.html (last visited Aug. 4, 2023). [3]Boston Consulting Group [BCG], The CEO’s Roadmap on Generative AI (Mar. 2023), https://media-publications.bcg.com/BCG-Executive-Perspectives-CEOs-Roadmap-on-Generative-AI.pdf (last visited Aug. 29, 2023). [4]Kate Saenko, Is generative AI bad for the environment? A computer scientist explains the carbon footprint of ChatGPT and its cousins, The Conversation (May 23, 2023.), https://theconversation.com/is-generative-ai-bad-for-the-environment-a-computer-scientist-explains-the-carbon-footprint-of-chatgpt-and-its-cousins-204096 (last visited Sep. 7, 2023). [5]Robert Lufrano, ChatGPT and the Limits of AI in Legal Research, National Law Review, Volume XIII, Number 195 (Mar. 2023), https://www.natlawreview.com/article/chatgpt-and-limits-ai-legal-research (last visited Aug. 29, 2023).
日本公布第6期科學技術與創新基本計畫草案並募集公眾意見,著重疫情與科技基本法修正後之因應日本內閣府於2021年1月20日發布「第6期科學技術與創新基本計畫」(科学技術・イノベーション基本計画,以下稱第6期科技創新基本計畫)草案,並自即日起至同年2月10日,對外徵求公眾意見。依2020年6月修正通過之日本科學技術與創新基本法(科学技術・イノベーション基本法,預定2021年正式公告施行)第12條規定,要求政府應就振興科學技術與創新創造的政策,擬定基本計畫並適時檢討調整,同時對外公告。而本次草案的提出,便為因應現行的第5期科學技術基本計畫即將屆期,啟動擬定下一期基本計畫。 依草案內容,第6期科技創新基本計畫延續Society5.0的願景,並以數位化及數位科技作為發展核心。但檢視至今的科技創新政策成效,數位化進程不如政策目標所預期;受COVID-19疫情影響,也提升了科技普及化應用的重要性。另一方面,科學技術基本法的修正,則揭示了人文社會科學與自然科學跨域融合運用的方向,並期待藉由創新創造納為立法目的,實現進一步的價值創造。基此,第6期科技創新基本計畫提出,應從強化創新、研究能量及確保人才與資金的三方向為主軸,結合SDGs、數位化、資料驅動及日本共通在地價值,建構出「日本模型」(Japan Model)作為實現Society5.0的框架。 針對如何強化創新能力、研究能量及確保人才與資金,計畫草案提出以下方向: (1)強化創新能力:整體性強化創新生態系(innovation ecosystem),建構具韌性的社會體系,並有計畫地推動具社會應用可能的研發活動。具體作法包含藉由AI與資料促成虛擬空間與現實世界的互動優化、持續縮減碳排放量實現循環經濟、減低自然災害與傳染病流行對經濟社會造成的風險、自社會需求出發推動產業結構走向創新、拓展智慧城市(smart city)的應用地域等。 (2)強化研究能力:鼓勵開放科學與資料驅動型之研究,並強化研究設備、機器等基礎設施的遠端與智慧機能,推動研究體系的數位轉型;以資料驅動型為目標,多元拓展具高附加價值的研究,包含生命科學、環境、能源、海洋、防災等領域;擴張大學的機能,如增進大學的自主性,從經營的角度調整與鬆綁國立大學法人的管理與績效評鑑方式等,用以厚植創新基底。 (3)人才培育及資金循環:目標培養具備應變力與設定議題能力的人才;同時藉由資助前瞻性研發,結合大學的基礎科研成果,激發創新的產出及延伸收益,並回頭挹注於研發,建立研發資金的循環運用體系。