日本通過法案 明確列出無人機禁止飛行範圍

  有鑑於今年4月底,一架攜帶具有放射性物質的小型無人機墜毀在日本首相官邸的屋頂上,對元首維安構成威脅,日本政府為此決定加強無人機管控。日本國會並於9月通過民用航空法(Civil Aeronautics Law)修正案,明確列出無人機禁止飛行範圍,違反者最高將可處以50萬日圓(約4,200美元)以下罰鍰,但因災害或自然事故發生而利用無人機進行救援、搜索行動不在規範範圍。

  法案主要修正內容為,特定空域未經申請不可飛行,例如禁止無人機飛越人口密集的住宅區及機場周邊區域,人口密集地區,以每平方公里人口4,000人為界,因此東京都23區和主要區域城市,將會列為無人機禁航區。另外,在舉行慶祝活動及展覽等會吸引大批群眾暫時聚集的地區上空,無人機亦不可飛行。

  然而,通過申請後的飛行區域,仍須遵守幾項要求,如無人機須於日間目視範圍內飛行、無人機與人員及建築物必需保持一定距離,以及未經政府許可,夜間不可使用無人機,並禁止無人機裝載爆炸裝置等會造成人員傷害或財物損失的危險物品。除此之外,並定義「無人機是透過遠程遙控或自動駕駛儀器飛行,且無人機作為機器不能搭載乘客」,但輕量型玩具飛機不包含在內。修訂後的法案將於今年年底前開始施行。

  此外,下議院目前仍審議有關禁止無人機靠近重要設施,包含首相官邸、國會、皇宮、核電廠之草案。

相關連結
※ 日本通過法案 明確列出無人機禁止飛行範圍, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=7001&no=0&tp=1 (最後瀏覽日:2025/12/01)
引註此篇文章
你可能還會想看
G7第四屆資料保護與隱私圓桌會議揭示隱私保護新趨勢

G7第四屆資料保護與隱私圓桌會議揭示隱私保護新趨勢 資訊工業策進會科技法律研究所 2025年03月10日 七大工業國組織(Group of Seven,下稱G7)於2024年10月10日至11日在義大利羅馬舉辦第四屆資料保護與隱私機構圓桌會議(Data Protection and Privacy Authorities Roundtable,下稱圓桌會議),並發布「G7 DPAs公報:資料時代的隱私」(G7 DPAs’ Communiqué: Privacy in the age of data,下稱公報)[1],特別聚焦於人工智慧(AI)技術對隱私與資料保護的影響。 壹、緣起 由美國、德國、英國、法國、義大利、加拿大與日本的隱私主管機關(Data Protection and Privacy Authorities, DPAs)組成本次圓桌會議,針對數位社會中資料保護與隱私相關議題進行討論,涵蓋「基於信任的資料自由流通」(Data Free Flow with Trust, DFFT)、新興技術(Emerging technologies)、跨境執法合作(Enforcement cooperation)等三大議題。 本次公報重申,在資通訊技術主導的社會發展背景下,應以高標準來審視資料隱私,從而保障個人權益。而DPAs作為AI治理領域的關鍵角色,應確保AI技術的開發和應用既有效且負責任,同時在促進大眾對於涉及隱私與資料保護的AI技術認識與理解方面發揮重要作用[2]。此外,公報亦強調DPAs與歐盟理事會(Council of Europe, CoE)、經濟合作暨發展組織(Organisation for Economic Co-operation and Development, OECD)、亞太隱私機構(Asia Pacific Privacy Authorities, APPA)、全球隱私執行網路(Global Privacy Enforcement Network, GPEN)及全球隱私大會(Global Privacy Assembly, GPA)等國際論壇合作的重要性,並期望在推動資料保護與建立可信賴的AI技術方面作出貢獻[3]。 貳、重點說明 基於上述公報意旨,本次圓桌會議上通過《關於促進可信賴AI的資料保護機構角色的聲明》(Statement on the Role of Data Protection Authorities in Fostering Trustworthy AI)[4]、《關於AI與兒童的聲明》(Statement on AI and Children)[5]、《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》(Reducing identifiability in cross-national perspective: Statutory and policy definitions for anonymization, pseudonymization, and de-identification in G7 jurisdictions)[6],分別說明重點如下: 一、《關於促進可信賴AI的資料保護機構角色的聲明》 繼2023年第三屆圓桌會議通過《關於生成式AI聲明》(Statement on Generative AI)[7]後,本次圓桌會議再次通過《關於促進可信賴AI的資料保護機構角色的聲明》,旨在確立管理AI技術對資料保護與隱私風險的基本原則。G7 DPAs強調許多AI技術依賴個人資料的運用,這可能引發對個人偏見及歧視、不公平等問題。此外,本聲明中還表達了擔憂對這些問題可能透過深度偽造(Deepfake)技術及假訊息擴散,進一步對社會造成更廣泛的不良影響[8]。 基於上述考量,本聲明提出以下原則,納入G7 DPAs組織管理的核心方針[9]: 1. 以人為本的方法:G7 DPAs應透過資料保護來維護個人權利與自由,並在AI技術中提供以人權為核心的觀點。 2. 現有原則的適用:G7 DPAs應審視公平性、問責性、透明性和安全性等AI治理的核心原則,並確保其適用於AI相關框架。 3. AI核心要素的監督:G7 DPAs應從專業視角出發,監督AI的開發與運作,確保其符合負責任的標準,並有效保護個人資料。 4. 問題根源的因應:G7 DPAs應在AI的開發階段(上游)和應用階段(下游)找出問題,並在問題擴大影響前採取適當措施加以解決。 5. 善用經驗:G7 DPAs應充分利用其在資料領域的豐富經驗,謹慎且有效地應對AI相關挑戰。 二、《關於AI與兒童的聲明》 鑒於AI技術發展可能對於兒童和青少年產生重大影響,G7 DPAs發布本聲明表示,由於兒童和青少年的發展階段及其對於數位隱私的瞭解、生活經驗有限,DPAs應密切監控AI對兒童和青少年的資料保護、隱私權及自由可能造成的影響程度,並透過執法、制定適合年齡的設計實務守則,以及發佈面向兒童和青少年隱私權保護實務指南,以避免AI技術導致潛在侵害兒童和青少年隱私的行為[10]。 本聲明進一步闡述,當前及潛在侵害的風險包含[11]: 1. 基於AI的決策(AI-based decision making):因AI運用透明度不足,可能使兒童及其照顧者無法獲得充足資訊,以瞭解其可能造成重大影響的決策。 2. 操縱與欺騙(Manipulation and deception):AI工具可能具有操縱性、欺騙性或能夠危害使用者情緒狀態,促使個人採取可能危害自身利益的行動。例如導入AI的玩具可能使兒童難以分辨或質疑。 3. AI模型的訓練(Training of AI models):蒐集和使用兒童個人資料來訓練AI模型,包括從公開來源爬取或透過連線裝置擷取資料,可能對兒童的隱私權造成嚴重侵害。 三、《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》 考慮到個人資料匿名化、假名化及去識別化能促進資料的創新利用,有助於最大限度地減少隱私風險,本文件旨在整合G7成員國對於匿名化、假名化與去識別化的一致理解,針對必須降低可識別性的程度、資訊可用於識別個人的程度、減少可識別性的規定流程及技術、所產生的資訊是否被視為個人資料等要件進行整理,總結如下: 1. 去識別化(De-identification):加拿大擬議《消費者隱私保護法》(Consumer Privacy Protection Act, CPPA)、英國《2018年資料保護法》(Data Protection Act 2018, DPA)及美國《健康保險可攜性及責任法》(Health Insurance Portability and Accountability Act , HIPAA)均有去識別化相關規範。關於降低可識別性的程度,加拿大CPPA、英國DPA規定去識別化資料必須達到無法直接識別特定個人的程度;美國HIPAA則規定去識別化資料須達到無法直接或間接識別特定個人的程度。再者,關於資料去識別化的定性,加拿大CPPA、英國DPA認定去識別化資料仍被視為個人資料,然而美國HIPAA則認定去識別化資料不屬於個人資料範疇。由此可見,各國對去識別化規定仍存在顯著差異[12]。 2. 假名化(Pseudonymization):歐盟《一般資料保護規則》(General Data Protection Regulation, GDPR)及英國《一般資料保護規則》(UK GDPR)、日本《個人資料保護法》(個人情報の保護に関する法律)均有假名化相關規範。關於降低可識別性的程度,均要求假名化資料在不使用額外資訊的情況下,須達到無法直接識別特定個人的程度,但額外資訊應與假名化資料分開存放,並採取相應技術與組織措施,以確保無法重新識別特定個人,因此假名化資料仍被視為個人資料。而關於假名化程序,日本個資法明定應刪除或替換個人資料中可識別描述或符號,歐盟及英國GDPR雖未明定具體程序,但通常被認為採用類似程序[13]。 3. 匿名化(Anonymization):歐盟及英國GDPR、日本個資法及加拿大CPPA均有匿名化相關規範。關於降低可識別性的程度,均要求匿名化資料無法直接或間接識別特定個人,惟可識別性的門檻存在些微差異,如歐盟及英國GDPR要求考慮控管者或其他人「合理可能用於」識別個人的所有方式;日本個資法則規定匿名化資料之處理過程必須符合法規標準且不可逆轉。再者,上述法規均將匿名化資料視為非屬於個人資料,但仍禁止用於重新識別特定個人[14]。 參、事件評析 本次圓桌會議上發布《關於促進可信賴AI的資料保護機構角色的聲明》、《關於AI與兒童的聲明》,彰顯G7 DPAs在推動AI治理原則方面的企圖,強調在AI技術蓬勃發展的背景下,隱私保護與兒童權益應成為優先關注的議題。與此同時,我國在2024年7月15日預告《人工智慧基本法》草案,展現對AI治理的高度重視,融合美國鼓勵創新、歐盟保障人權的思維,針對AI技術的應用提出永續發展、人類自主、隱私保護、資訊安全、透明可解釋、公平不歧視、問責等七項原則,為國內AI產業與應用發展奠定穩固基礎。 此外,本次圓桌會議所發布《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》,揭示各國在降低可識別性相關用語定義及其在資料保護與隱私框架中的定位存在差異。隨著降低可識別性的方法與技術不斷創新,這一領域的監管挑戰日益突顯,也為跨境資料流動越發頻繁的國際環境提供了深化協調合作的契機。在全球日益關注資料保護與隱私的趨勢下,我國個人資料保護委員會籌備處於2024年12月20日公告《個人資料保護法》修正草案,要求民間業者設置個人資料保護長及稽核人員、強化事故通報義務,並針對高風險行業優先實施行政檢查等規定,以提升我國在數位時代的個資保護水準。 最後,本次圓桌會議尚訂定《2024/2025年行動計畫》(G7 Data Protection and Privacy Authorities’ Action Plan)[15],圍繞DFFT、新興技術與跨境執法合作三大議題,並持續推動相關工作。然而,該行動計畫更接近於一項「基於共識的宣言」,主要呼籲各國及相關機構持續努力,而非設定具有強制力或明確期限的成果目標。G7 DPAs如何應對數位社會中的資料隱私挑戰,並建立更順暢且可信的國際資料流通機制,將成為未來關注的焦點。在全球共同面臨AI快速發展所帶來的機遇與挑戰之際,我國更應持續關注國際趨勢,結合自身需求制訂相關法規以完善相關法制,並積極推動國際合作以確保國內產業發展銜接國際標準。 [1]Office of the Privacy Commissioner of Canada [OPC], G7 DPAs’ Communiqué: Privacy in the age of data (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/communique-g7_241011/ (last visited Feb 3, 2025). [2]Id. at para. 5. [3]Id. at para. 7-9. [4]Office of the Privacy Commissioner of Canada [OPC], Statement on the Role of Data Protection Authorities in Fostering Trustworthy AI (2024), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2024/s-d_g7_20241011_ai/ (last visited Feb 3, 2025). [5]Office of the Privacy Commissioner of Canada [OPC], Statement on AI and Children (2024), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2024/s-d_g7_20241011_child-ai/ (last visited Feb 3, 2025). [6]Office of the Privacy Commissioner of Canada [OPC], Reducing identifiability in cross-national perspective: Statutory and policy definitions for anonymization, pseudonymization, and de-identification in G7 jurisdictions (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/de-id_20241011/ (last visited Feb 3, 2025). [7]Office of the Privacy Commissioner of Canada [OPC], Statement on Generative AI (2023), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2023/s-d_20230621_g7/ (last visited Feb 3, 2025). [8]Supra note 4, at para. 11. [9]Supra note 4, at para. 18. [10]Supra note 5, at para. 5-6. [11]Supra note 5, at para. 7. [12]Supra note 6, at para. 11-15. [13]Supra note 6, at para. 16-19. [14]Supra note 6, at para. 20-25. [15]Office of the Privacy Commissioner of Canada [OPC], G7 Data Protection and Privacy Authorities’ Action Plan (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/ap-g7_241011/ (last visited Feb 3, 2025).

惠普 : 軟體專利是必要之惡

  智慧財產權議題涉及專利、著作權和商業機密,近年來因開放原始碼軟體而備受矚目。開放原始碼軟體可共享、修改和重新發布,和傳統專屬軟體的保密性和發布限制迥然不同。   許多開放原始碼與自由軟體倡議人士都痛批軟體專利,相形之下,惠普以擁有大量的專利為傲。2004年惠普一共獲頒1,775項美國專利,在美國排名第四。   惠普Linux負責人表示,開放原始碼程式設計師或許厭惡軟體專利的概念,但最好還是試著自我調適,因為軟體專利是不會消失的。且開放原始碼軟體是在著作權法的基礎上發展而成的,而專利比較麻煩,是因為程式設計師把專利視為削弱他們的自由。另一方面,企業則把專利看待成自家珍貴創意的保護傘。   惠普Linux副總裁Martin Fink批評開放原始碼促進會(Open Source Initiative;OSI)核准開放原始碼授權證書的作法太草率。去年8月,Fink曾指出,開放原始碼授權證書多達52種,實在太多了。現在數目變得更多,因為他抱怨OSI核准任何符合開放原始碼定義的申請案,卻不試著加以整併以強化開放原始碼業的基礎。只基於符合規格就核准授權證書,而未顧及進一步鞏固開放原始碼經營模式的能力,這會構成明顯而迫切的危險。   一家銷售智財權法律免責保險的公司說,調查顯示,Linux作業系統的核心(kernel)可能涉及283項專利侵權。惠普2002年也提醒眾人,微軟可能醞釀對開放原始碼軟體提出專利訴訟。但目前為止這些威脅尚未發生,而紅帽公司(Red Hat)和Novell揚言運用自家專利反制那類威脅,IBM和昇陽也表明不會針對開放原始碼侵犯的數百項專利提出告訴。

日本內閣官房提出法案規範醫療個資去識別化業者,以促進研發利用

  日本內閣官房所屬之健康‧醫療戰略室於2017年3月, 向國會提出《有助醫療領域研究開發之匿名加工醫療資訊法律案》(医療分野の研究開発に資するための匿名加工医療資訊に関する法律案)。「健康‧醫療戰略室」係於2013年2月成立,並於同年8月根據《健康‧醫療推進法》設置「健康‧醫療戰略推進本部」。該部於2017年3月10日提出《有助醫療領域研究開發之匿名加工醫療資訊法律案》,針對醫療資訊匿名加工業者進行規制,使他人可安心利用經過去識別化處理之資訊,以便促進健康、醫療方面之研究及產業發展,形成健康長壽社會。上開法案主要可分為兩個部份︰ 國家責任與義務︰政府應提出必要政策與制定基本方針。 匿名加工醫療資訊業者之認定︰該部份又可分為匿名加工醫療資訊業者(以下簡稱業者)之認定與醫療資訊處理。   針對上述第2點之認定,為確保資訊安全,政府應設置認定機構,以便確認業者符合一定基準,並具備足夠之匿名加工技術,可為醫療個資去識別化。此外,在醫療資訊處理方面,該法案則規定醫療機關可在事先告知本人,且本人未拒絕提供時,將醫療資訊提供給業者。

FCC發布命令以保護電話中繼服務基金

  科技為民眾帶來溝通的便利性,卻因不夠人性化,常使身心障礙人士無法享受無遠弗屆的服務。因此,為了使身障者易於與他人溝通,FCC推動電信轉接服務( (Interstate Telecommunications Relay Service),讓通訊科技更易於使用。藉由電話中繼服務基金(Interstate Telecommunications Relay Service Fund)的支持,提供文字電話轉接(Text Telephone) 、語音轉語音(Speech-to-Speech)、電話字幕服務(Captioned Telephone Service)、視訊轉接服務(VideoRelay Service)與網路轉接字幕電話服務( Internet Protocol Captioned Telephone Service,下述簡稱IPCTS),協助聽障、語言障礙民眾得以享有電信服務。   但是,近幾個月來,FCC發現電信商要求IPCTS的補助與日俱增,從2012年6月起,每個月成長約11%,且導致10月時面臨請求總支出超過預算4百萬美元之危機。為了解決電話中繼服務基金(Interstate Telecommunications Relay Service Fund)面臨嚴重資金不足的威脅,FCC在2013年01月25日公佈FCC 13-13法規制定建議通知(Notice of Proposed Rulemaking),希望藉由下述規定,短暫性解決民眾過度、不當取得服務之問題: 1.禁止推薦獎勵計畫:禁止業者給予獎勵、回報的方式,鼓勵民眾使用網路轉接字幕電話服務。 2.供應商提供IPCTS服務,需符合三要件,方可取得補助: ‧ 每位使用者均需登記方能取得服務。 ‧ 供應商需取得用戶自我認證,才能完成註冊程序。 ‧ 使用者並非使用從政府計畫中取得IPCTS設備,而其設備卻低於75美元時,供應商需從使用者取得公正第三方證明。 3.供應商提供設備與軟體,必須於每通電話完成後,可以自動關閉。亦即消費者每次使用時,均需經過開啟的步驟,以保護隱私。   在FCC適度處理IPCTS不當使用後,可以預見電話中繼服務基金更能發揮所需,此舉不僅使科技更貼近於大眾、減少溝通障礙外,更可落實普世價值,使美國社會福利更加完善。

TOP