無人機(Drone)也就是無人飛機或無人飛行器(Unmanned Aerial Vehicles, UAV),具備自動飛行系統的簡易模型飛機,自動飛行系統內可能包含一電腦作業系統、一套衛星導航裝置、羅盤功能、氣壓高度計、偵測器及設計飛行之軟體等等,簡稱無人機。茲因電子與無線傳輸科技進步,無人機在國際間掀起流行,近來無人機之使用引發安全疑慮,促進各國重視無人機的使用與法制管理。目前國際間陸續針對無人機立法管理的有美國、日本及歐盟等,我國行政院亦於2015年9月24日通過「民用航空法」部分條文修正草案因應無人機遙控管理規範。觀諸國際立法及修法趨勢,無人航空器之管理,包括無人機的體積、重量、使用用途、使用區域限制、使用時間限制、飛行速度或方法、飛行高度限制等,且亦須重視安全、隱私、資料保護、損害責任與保險相關問題,以及無人機所有權明確判別之方式等,因此我國未來就無人機相關管理規範或可參考先進國家重要管理規定,擬定更適合我國之「無人航空器管理規則」,俾利發展新興科技無人機市場時,同時能兼顧確保個人、國家與領空安全之規劃。
本文為「經濟部產業技術司科技專案成果」
德國漢堡地方法院4月20日針對GEMA控告YouTube一案作出判決(Az. 310 O 461/10),確認影片平台業者著作權法上之義務,預料將為兩造授權金協議過程的僵局,造成一定影響。 本案原告GEMA主張被告YouTube應採取措施,阻止其享有權利之12個影音檔案,繼續透過YouTube平台在德國境內流通。而本案的爭點即在於:對於YouTube平台上由網友上傳、且涉嫌侵害著作權的影片內容,被告移除及防止侵害的責任範圍究竟多大。 本案法院認為,因被告本身並非將違法內容上傳之行為人,無法以德國電信服務法(TMG)第7條規定,課予其侵權行為人責任(Täterhaftung)。但被告因提供、經營平台,對著作權侵害有所「貢獻」,故法院依TMG第10條規定,認定被告YouTube僅在知悉特定侵權情事的情況下,才負擔移除或阻斷網路接取的義務;而當平台業者收到著作權侵害的通知後,便須立即阻斷涉嫌侵權的影片,並採取合理的措施,防止侵權行為再發生。然而,法院也強調,平台業者只負擔「合理」的檢查及管控義務,故平台業者毋須逐一檢視所有已上傳的影片。 按本案法院見解,所謂合理的措施,包括YouTube須利用其所研發的「內容識別系統Content-ID」,防止特定的侵權內容再次發生。另YouTube也負擔加裝文字過濾軟體的義務,以杜絕含有特定標題或關鍵字之影片上傳至平台。 據了解,雙方均發表聲明對此判決結果表示肯定。除原告得以主張其所享有的著作權外,YouTube也認為法院明確界定影視平台業者應作為的義務範圍。但對原告GEMA來說,重點在如何透過訴訟程序對YouTube施壓,重啟授權金的談判。兩造後續對長久來授權金計算公式的歧異將如何達成共識,值得關注。
智慧型運輸系統之頻譜規劃-參考美國及歐盟之規範 歐盟發布新人工智慧規範,以風險程度判斷防止科技濫用歐盟執委會於2021年4月21日提出「人工智慧規則」(AI regulation)草案,成為第一個結合人工智慧法律架構及「歐盟人工智慧協調計畫」(Coordinated Plan on AI)的法律規範。規範主要係延續其2020年提出的「人工智慧白皮書」(White Paper on Artificial Intelligence)及「歐盟資料策略」(European Data Strategy),達到為避免人工智慧科技對人民基本權產生侵害,而提出此保護規範。 「人工智慧規則」也依原白皮書中所設的風險程度判斷法(risk-based approach)為標準,將科技運用依風險程度區分為:不可被接受風險(Unacceptable risk)、高風險(High-risk)、有限風險(Limited risk)及最小風險(Minimal risk)。 「不可被接受的風險」中全面禁止科技運用在任何違反歐盟價值及基本人權,或對歐盟人民有造成明顯隱私風險侵害上。如政府對人民進行「社會評分」制度或鼓勵兒童為危險行為的語音系統玩具等都屬於其範疇。 在「高風險」運用上,除了作為安全設備的系統及附件中所提出型態外,另將所有的「遠端生物辨識系統」(remote biometric identification systems)列入其中。規定原則上禁止執法機構於公眾場合使用相關的生物辨識系統,例外僅在有目的必要性時,才得使用,像尋找失蹤兒童、防止恐怖攻擊等。 而在為資料蒐集行為時,除對蒐集、分析行為有告知義務外,也應告知系統資料的準確性、安全性等,要求高度透明化(Transparency obligations)。不只是前述的不可被接受風險及高風險適用外,有限風險運用中的人工智慧聊天系統也需要在實際和系統互動前有充足的告知行為,以確保資料主體對資料蒐集及利用之情事有充足的認知。 在此新人工智慧規範中仍有許多部份需要加強與討論,但仍期望在2022年能發展到生效階段,以對人工智慧科技的應用多一層保障。
英國資訊委員辦公室(ICO)進行監理沙盒初步公眾意見徵詢英國資訊委員辦公室(Information Commissioner's Office, ICO)2018年9月就監理沙盒為初步公眾意見徵詢,以瞭解其可行性。ICO監理沙盒之建立係依據英國2018-2021年科技策略(Technology Strategy for 2018-2021),並參考英國金融行為監理總署(Financial Conduct Authority, FCA)已成功發展之沙盒機制。ICO將提供組織於安全可控且不排除資料保護法規適用的環境下,以創新方式應用個資於開發創新產品與服務,並提供關於降低風險與資料保護設計(data protection by design)的專業知識和建議,同時確保組織採取適當安全維護措施。徵詢重點分為六部分: 障礙和挑戰(Barriers and Challenges):歐盟一般資料保護規則(General Data Protection Regulation, GDPR)或英國2018年資料保護法(Data Protection Act 2018, DPA18)之適用,以及ICO之監管方法,是否造成組織以創新方式應用個資於開發創新產品與服務之障礙或挑戰。 適用之可能範圍(Possible scope of an ICO Sandbox) 了解參與益處(Understanding the benefits of involvement) 機制(Sandbox mechanisms):於監理沙盒機制下不同階段提供指導,初期就如何解決資料保護相關問題提供非正式之指導(informal steers);中期提供法律允許與具適當保護措施之監管指導,如對參與者進入沙盒期間內非故意違反資料保護原則之行為,不會立即受到制裁之聲明函(letters of comfort)、確認組織未違反相關資料保護法規等;以及針對新興技術和創新特定領域,提供解決資料保護挑戰之預期指導(anticipatory guidance),如訂定相關行為準則(code of conduct)。 時機(Sandbox timings):包含開放申請進入沙盒時點、進入模式、是否彈性因應產品開發週期、測試階段期間等。 管理需求(Managing Demand):如設定優先進入沙盒領域、類型、設定參與者數量上限等。 該諮詢於10月12日結束,2018年底將公布結果,值得持續追蹤,以瞭解ICO監理沙盒未來之發展。 ICO亦接續於10月建立監管機關業務和隱私創新中心(Regulators’Business and Privacy Innovation Hub),與其他監管機關合作提供資料保護之專業知識,以確保法規與未來的技術同步發展;該中心也將與ICO監理沙盒共同推動,支持組織以不同方式使用個資開發創新產品和服務。