簡介人工智慧的智慧財產權保護趨勢

近期人工智慧(Artificial Intelligence, AI)的智慧財產權保護受到各界廣泛注意,而OpenAI於2023年3月所提出有關最新GPT- 4語言模型的技術報告更將此議題推向前所未有之高峰。過去OpenAI願意公布細節,係由於其標榜的是開源精神,但近期的報告卻決定不公布細節(如訓練計算集、訓練方法等),因為其認為開源將使GPT- 4語言模型面臨數據洩露的安全隱患,且尚有保持一定競爭優勢之必要。

若AI產業選擇不採取開源,通常會透過以下三種方式來保護AI創新,包括申請專利、以營業秘密保護,或同時結合兩者。相對於專利,以營業秘密保護AI創新可以使企業保有其技術優勢,因不用公開技術內容,較符合AI產業對於保護AI創新的期待。然而,企業以營業秘密保護AI創新有其限制,包含:

1.競爭者可能輕易透過還原工程了解該產品的營業秘密內容,並搶先申請專利,反過來起訴企業侵害其專利,而面臨訴訟風險;

2.面對競爭者提起的專利侵權訴訟,企業將因為沒有專利而無法提起反訴,或透過交互授權(cross-licensing)來避免訴訟;

3.縱使企業得主張「先使用權(prior user right)」,但其僅適用在競爭者於專利申請前已存在的技術,且未來若改進受先使用權保護之技術,將不再受到先使用權之保護,而有侵犯競爭者專利之虞,因此不利於企業提升其競爭力。

綜上所述,儘管AI產業面有從開源轉向保密的傾向,但若要完全仰賴營業秘密來保護AI創新仍有其侷限,專利依舊是當前各企業對AI領域的保護策略中的關鍵。

本文同步刊登於TIPS網站(https://www.tips.org.tw

相關連結
你可能會想參加
※ 簡介人工智慧的智慧財產權保護趨勢, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8993&no=57&tp=1 (最後瀏覽日:2026/03/02)
引註此篇文章
你可能還會想看
G7第四屆資料保護與隱私圓桌會議揭示隱私保護新趨勢

G7第四屆資料保護與隱私圓桌會議揭示隱私保護新趨勢 資訊工業策進會科技法律研究所 2025年03月10日 七大工業國組織(Group of Seven,下稱G7)於2024年10月10日至11日在義大利羅馬舉辦第四屆資料保護與隱私機構圓桌會議(Data Protection and Privacy Authorities Roundtable,下稱圓桌會議),並發布「G7 DPAs公報:資料時代的隱私」(G7 DPAs’ Communiqué: Privacy in the age of data,下稱公報)[1],特別聚焦於人工智慧(AI)技術對隱私與資料保護的影響。 壹、緣起 由美國、德國、英國、法國、義大利、加拿大與日本的隱私主管機關(Data Protection and Privacy Authorities, DPAs)組成本次圓桌會議,針對數位社會中資料保護與隱私相關議題進行討論,涵蓋「基於信任的資料自由流通」(Data Free Flow with Trust, DFFT)、新興技術(Emerging technologies)、跨境執法合作(Enforcement cooperation)等三大議題。 本次公報重申,在資通訊技術主導的社會發展背景下,應以高標準來審視資料隱私,從而保障個人權益。而DPAs作為AI治理領域的關鍵角色,應確保AI技術的開發和應用既有效且負責任,同時在促進大眾對於涉及隱私與資料保護的AI技術認識與理解方面發揮重要作用[2]。此外,公報亦強調DPAs與歐盟理事會(Council of Europe, CoE)、經濟合作暨發展組織(Organisation for Economic Co-operation and Development, OECD)、亞太隱私機構(Asia Pacific Privacy Authorities, APPA)、全球隱私執行網路(Global Privacy Enforcement Network, GPEN)及全球隱私大會(Global Privacy Assembly, GPA)等國際論壇合作的重要性,並期望在推動資料保護與建立可信賴的AI技術方面作出貢獻[3]。 貳、重點說明 基於上述公報意旨,本次圓桌會議上通過《關於促進可信賴AI的資料保護機構角色的聲明》(Statement on the Role of Data Protection Authorities in Fostering Trustworthy AI)[4]、《關於AI與兒童的聲明》(Statement on AI and Children)[5]、《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》(Reducing identifiability in cross-national perspective: Statutory and policy definitions for anonymization, pseudonymization, and de-identification in G7 jurisdictions)[6],分別說明重點如下: 一、《關於促進可信賴AI的資料保護機構角色的聲明》 繼2023年第三屆圓桌會議通過《關於生成式AI聲明》(Statement on Generative AI)[7]後,本次圓桌會議再次通過《關於促進可信賴AI的資料保護機構角色的聲明》,旨在確立管理AI技術對資料保護與隱私風險的基本原則。G7 DPAs強調許多AI技術依賴個人資料的運用,這可能引發對個人偏見及歧視、不公平等問題。此外,本聲明中還表達了擔憂對這些問題可能透過深度偽造(Deepfake)技術及假訊息擴散,進一步對社會造成更廣泛的不良影響[8]。 基於上述考量,本聲明提出以下原則,納入G7 DPAs組織管理的核心方針[9]: 1. 以人為本的方法:G7 DPAs應透過資料保護來維護個人權利與自由,並在AI技術中提供以人權為核心的觀點。 2. 現有原則的適用:G7 DPAs應審視公平性、問責性、透明性和安全性等AI治理的核心原則,並確保其適用於AI相關框架。 3. AI核心要素的監督:G7 DPAs應從專業視角出發,監督AI的開發與運作,確保其符合負責任的標準,並有效保護個人資料。 4. 問題根源的因應:G7 DPAs應在AI的開發階段(上游)和應用階段(下游)找出問題,並在問題擴大影響前採取適當措施加以解決。 5. 善用經驗:G7 DPAs應充分利用其在資料領域的豐富經驗,謹慎且有效地應對AI相關挑戰。 二、《關於AI與兒童的聲明》 鑒於AI技術發展可能對於兒童和青少年產生重大影響,G7 DPAs發布本聲明表示,由於兒童和青少年的發展階段及其對於數位隱私的瞭解、生活經驗有限,DPAs應密切監控AI對兒童和青少年的資料保護、隱私權及自由可能造成的影響程度,並透過執法、制定適合年齡的設計實務守則,以及發佈面向兒童和青少年隱私權保護實務指南,以避免AI技術導致潛在侵害兒童和青少年隱私的行為[10]。 本聲明進一步闡述,當前及潛在侵害的風險包含[11]: 1. 基於AI的決策(AI-based decision making):因AI運用透明度不足,可能使兒童及其照顧者無法獲得充足資訊,以瞭解其可能造成重大影響的決策。 2. 操縱與欺騙(Manipulation and deception):AI工具可能具有操縱性、欺騙性或能夠危害使用者情緒狀態,促使個人採取可能危害自身利益的行動。例如導入AI的玩具可能使兒童難以分辨或質疑。 3. AI模型的訓練(Training of AI models):蒐集和使用兒童個人資料來訓練AI模型,包括從公開來源爬取或透過連線裝置擷取資料,可能對兒童的隱私權造成嚴重侵害。 三、《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》 考慮到個人資料匿名化、假名化及去識別化能促進資料的創新利用,有助於最大限度地減少隱私風險,本文件旨在整合G7成員國對於匿名化、假名化與去識別化的一致理解,針對必須降低可識別性的程度、資訊可用於識別個人的程度、減少可識別性的規定流程及技術、所產生的資訊是否被視為個人資料等要件進行整理,總結如下: 1. 去識別化(De-identification):加拿大擬議《消費者隱私保護法》(Consumer Privacy Protection Act, CPPA)、英國《2018年資料保護法》(Data Protection Act 2018, DPA)及美國《健康保險可攜性及責任法》(Health Insurance Portability and Accountability Act , HIPAA)均有去識別化相關規範。關於降低可識別性的程度,加拿大CPPA、英國DPA規定去識別化資料必須達到無法直接識別特定個人的程度;美國HIPAA則規定去識別化資料須達到無法直接或間接識別特定個人的程度。再者,關於資料去識別化的定性,加拿大CPPA、英國DPA認定去識別化資料仍被視為個人資料,然而美國HIPAA則認定去識別化資料不屬於個人資料範疇。由此可見,各國對去識別化規定仍存在顯著差異[12]。 2. 假名化(Pseudonymization):歐盟《一般資料保護規則》(General Data Protection Regulation, GDPR)及英國《一般資料保護規則》(UK GDPR)、日本《個人資料保護法》(個人情報の保護に関する法律)均有假名化相關規範。關於降低可識別性的程度,均要求假名化資料在不使用額外資訊的情況下,須達到無法直接識別特定個人的程度,但額外資訊應與假名化資料分開存放,並採取相應技術與組織措施,以確保無法重新識別特定個人,因此假名化資料仍被視為個人資料。而關於假名化程序,日本個資法明定應刪除或替換個人資料中可識別描述或符號,歐盟及英國GDPR雖未明定具體程序,但通常被認為採用類似程序[13]。 3. 匿名化(Anonymization):歐盟及英國GDPR、日本個資法及加拿大CPPA均有匿名化相關規範。關於降低可識別性的程度,均要求匿名化資料無法直接或間接識別特定個人,惟可識別性的門檻存在些微差異,如歐盟及英國GDPR要求考慮控管者或其他人「合理可能用於」識別個人的所有方式;日本個資法則規定匿名化資料之處理過程必須符合法規標準且不可逆轉。再者,上述法規均將匿名化資料視為非屬於個人資料,但仍禁止用於重新識別特定個人[14]。 參、事件評析 本次圓桌會議上發布《關於促進可信賴AI的資料保護機構角色的聲明》、《關於AI與兒童的聲明》,彰顯G7 DPAs在推動AI治理原則方面的企圖,強調在AI技術蓬勃發展的背景下,隱私保護與兒童權益應成為優先關注的議題。與此同時,我國在2024年7月15日預告《人工智慧基本法》草案,展現對AI治理的高度重視,融合美國鼓勵創新、歐盟保障人權的思維,針對AI技術的應用提出永續發展、人類自主、隱私保護、資訊安全、透明可解釋、公平不歧視、問責等七項原則,為國內AI產業與應用發展奠定穩固基礎。 此外,本次圓桌會議所發布《從跨國角度觀察降低可識別性:G7司法管轄區對匿名化、假名化與去識別化的法定及政策定義》,揭示各國在降低可識別性相關用語定義及其在資料保護與隱私框架中的定位存在差異。隨著降低可識別性的方法與技術不斷創新,這一領域的監管挑戰日益突顯,也為跨境資料流動越發頻繁的國際環境提供了深化協調合作的契機。在全球日益關注資料保護與隱私的趨勢下,我國個人資料保護委員會籌備處於2024年12月20日公告《個人資料保護法》修正草案,要求民間業者設置個人資料保護長及稽核人員、強化事故通報義務,並針對高風險行業優先實施行政檢查等規定,以提升我國在數位時代的個資保護水準。 最後,本次圓桌會議尚訂定《2024/2025年行動計畫》(G7 Data Protection and Privacy Authorities’ Action Plan)[15],圍繞DFFT、新興技術與跨境執法合作三大議題,並持續推動相關工作。然而,該行動計畫更接近於一項「基於共識的宣言」,主要呼籲各國及相關機構持續努力,而非設定具有強制力或明確期限的成果目標。G7 DPAs如何應對數位社會中的資料隱私挑戰,並建立更順暢且可信的國際資料流通機制,將成為未來關注的焦點。在全球共同面臨AI快速發展所帶來的機遇與挑戰之際,我國更應持續關注國際趨勢,結合自身需求制訂相關法規以完善相關法制,並積極推動國際合作以確保國內產業發展銜接國際標準。 [1]Office of the Privacy Commissioner of Canada [OPC], G7 DPAs’ Communiqué: Privacy in the age of data (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/communique-g7_241011/ (last visited Feb 3, 2025). [2]Id. at para. 5. [3]Id. at para. 7-9. [4]Office of the Privacy Commissioner of Canada [OPC], Statement on the Role of Data Protection Authorities in Fostering Trustworthy AI (2024), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2024/s-d_g7_20241011_ai/ (last visited Feb 3, 2025). [5]Office of the Privacy Commissioner of Canada [OPC], Statement on AI and Children (2024), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2024/s-d_g7_20241011_child-ai/ (last visited Feb 3, 2025). [6]Office of the Privacy Commissioner of Canada [OPC], Reducing identifiability in cross-national perspective: Statutory and policy definitions for anonymization, pseudonymization, and de-identification in G7 jurisdictions (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/de-id_20241011/ (last visited Feb 3, 2025). [7]Office of the Privacy Commissioner of Canada [OPC], Statement on Generative AI (2023), https://www.priv.gc.ca/en/opc-news/speeches-and-statements/2023/s-d_20230621_g7/ (last visited Feb 3, 2025). [8]Supra note 4, at para. 11. [9]Supra note 4, at para. 18. [10]Supra note 5, at para. 5-6. [11]Supra note 5, at para. 7. [12]Supra note 6, at para. 11-15. [13]Supra note 6, at para. 16-19. [14]Supra note 6, at para. 20-25. [15]Office of the Privacy Commissioner of Canada [OPC], G7 Data Protection and Privacy Authorities’ Action Plan (2024), https://www.priv.gc.ca/en/opc-news/news-and-announcements/2024/ap-g7_241011/ (last visited Feb 3, 2025).

歐盟發布未成年網路安全指引

歐盟執委會於2025年7月發布《確保未成年網路高度隱私、安全和保障的措施指引》(Guidelines on measures to ensure a high level of privacy, safety and security for minors online,下稱指引),依據《數位服務法》(Digital Services Act)第28條未成年網路保護規定,未成年人可存取的網路平臺提供者應採取適當措施確保未成年人享有高度隱私及安全保障,且不應迫使數位平臺提供者為評估使用者是否為未成年人而處理額外的個人資料,前述指引目的即為協助數位平臺提供者遵守《數位服務法》第28條之規定。 數位平臺的條款及條件允許未成年人使用該服務,及其服務面向包含未成年人或主要由未成年人使用,或其提供者知曉部分接收者為未成年人,則該數位平臺可被視為提供未成年人存取,數位平臺提供者即應符合比例適當性、保護兒童權利、隱私安全保障設計、年齡適宜設計等一般性原則。指引要求數位平臺提供者需要以準確、可靠和穩定的方式確認使用者的年齡,常見的年齡確認方式有三種:自我聲明、年齡估測、年齡驗證,數位平臺提供者應評估所採方式之必要性及適當性,以最小侵害措施達成高度安全性,並以準確性、可靠性、韌性、低侵害、不歧視為原則。 但指引也引發對於其技術可行性及執法的疑慮,歐洲數位權利組織(European Digital Rights, EDRi)認為政府忽略數位平臺設計與商業模式的根本性問題,依賴年齡認證可能限制未成年人的權利,且對於誤判、規避風險、互通性、與會員國身分系統的整合等問題仍有諸多疑問。雖然指引非法規不具強制性,但歐盟執委會已將指引作為合規評估標準,使數位平臺提供者面臨實施成本及合規證明的壓力。面對日新月異的網路世界,該如何避免未成年人接觸不良網路內容成為許多國家關心的議題,值得持續追蹤相關動態作為我國未成年網路安全政策之參考。

初探與省思我國法制下之侵權行為適用於非依軌道行駛之自動駕駛車輛之過失內涵

初探與省思我國法制下之侵權行為適用於非依軌道行駛之自動駕駛車輛之過失內涵 資訊工業策進會科技法律研究所 2019年03月15日 壹、事件摘要   於2018年03月18日晚間10時許,美國亞利桑那州(Arizona,下稱Arizona)一名49歲的婦人,遭到配備Uber自動駕駛系統之車輛[1],在運行自動領航模式(Autopilot)下撞擊,雖然該婦人立即送往醫院,但仍回天乏術而在醫院中去世。就在前開事故發生後,Arizona州長Doug Ducey因此下令其暫停測試。[2]   此外,同年12月11日晚間10時許,在我國有一輛配備自動輔助駕駛功能的Tesla,疑似駕駛人精神不濟因而未能及時注意車前狀況,導致車禍發生,雖然肇責是否牽涉Tesla之自動輔助駕駛功能或駕駛人本身有無疲勞駕駛等情事,有待進一步釐清。[3]   綜上,不論測試或道路駕駛,現今社會已不乏具有一定自動駕駛等級之車輛於路上行駛,然而在推廣、研發或應用自動駕駛車輛(下稱自駕車)的同時,若不幸發生類似前開新聞之(車禍)事故時,相關肇事責任究應如何釐清,隨著我國已於2018年12月19日公布無人載具科技創新實驗條例以積極推動自駕車相關應用,更愈顯重要,為解決前開肇事相關疑慮,本文擬針對民事上之「過失」本質,反思自駕車相關應用可能延伸的事故責任,是否因應科技發展而有不同的過失內涵。 貳、重點說明   承上,面對自駕車相關科技與應用的世界洪流,若發生車禍等交通事故時,當事人相關之損害賠償請求,仍大多以民法上之侵權行為作為基礎,雖事故肇因種類眾多,亦常見各類的肇因共同造成事故發生,但本文考量相關議題繁複,以下僅就非依軌道行駛之自駕車、駕駛人過失內涵等框架下依序進行初探與反思: 一、我國侵權行為損害賠償係以行為人有無具抽象輕過失為斷   車禍之發生,若涉及駕駛人之行為者,受有不論財產或人身損害之人而欲請求賠償者,無論係依據民法第184條以下何條侵權行為之規定(即民法第184條第1項前段、同條項後段或第191條之2等規定),請求駕駛自駕車之人賠償,前提均為駕駛人具有過失,差別僅在舉證責任是否由請求權人(受有損害之人)負擔。   承上,既然前開侵權行為之重要成立要件為過失,其具體內容為則為駕駛人之注意義務應至何種程度,然在我國民事過失責任之架構上,有不同程度上之區分,即分別為抽象輕過失、具體輕過失及重大過失三種。申言之,抽象輕過失為欠缺應盡善良管理人之注意者義務;具體輕過失者為欠缺應與處理自己事務為同一注意者;重大過失者為顯然欠缺普通人之注意者[4]。   對此,實務見解[5]以及學者[6]歷來均認侵權行為之過失標準,應以行為人是否克盡客觀化之過失標準─抽象輕過失,倘否,則應負擔過失之賠償責任,是以,就此脈絡推論,自駕車之駕駛人若有違善良管理人注意義務致車禍發生且使他人受損害,即應負損害賠償責任。 二、駕駛人注意義務與自駕車自動駕駛程度間之互動   根據引領世界自駕車標準的領銜者─國際汽車工程師學會(Society of Automotive Engineers International,下稱SAE)所分類之自動化駕駛等級,區分為等級0至等級5(共6個等級),而等級3後之自駕車即開始逐漸將環境監控的任務從駕駛人移轉至車輛本身,而駕駛人僅在特殊條件下,方須接管駕駛車輛,更甚在等級5時是由自駕車在任何狀況下均可自行駕駛,不過在等級2前之等級,環境監控之任務大多在駕駛人身上,自駕車至多僅係協助運行駕駛人之指令[7]。   然而,自駕車駕駛人因車禍所生之侵權行為責任,誠如前述,係以駕駛人存有抽象輕過失作為前提,而過失之本質,則係雖非故意,但按其情節,(1)行為人(駕駛自駕車之人)應或能注意,卻不注意,或(2)雖可預見侵權行為(車禍肇事)之事實發生,但確信不發生[8],就此,在SAE分類等級2以前之自駕車,因監控環境之任務仍由駕駛人負擔,則該類等級自駕車之駕駛人應與一般車輛之駕駛人,負擔相同侵權行為之注意義務內容(或程度),但等級3至等級5自駕車之各式應用情境,車輛行駛環境之相關監控資訊已轉由車輛本身處理、控管,則駕駛人是否對於自駕車之車禍發生,仍具有可預見性,或得注意並防免之,則不無疑慮。 參、事件評析   綜上,本文所提不同等級自駕車,是否當然得以繼續適用傳統民事侵權行為之過失標準判斷駕駛人有無過失,實有相當程度上之衝突,蓋若自駕車之駕駛人對於行車環境資訊已不如駕駛一般車輛時,實難期待駕駛人對於車禍之發生有何預見可能,或在遇見後積極防免結果發生,倘若一概遵循傳統對車禍侵權行為之高注意義務要求─抽象輕過失責任,或將產生使不明瞭或難以預見該事故原因發生之人,卻必須就非因己誤之結果負責,某程度上似有違過失責任之本質,而質變成為無過失之擔保責任。   據此,本文認為,若要解決前開損害發生須有補償或賠償之問題,或可(1)透過保險、基金等方式填補損害,或(2)具體化等級3至等級5自駕車之駕駛人應負何等注意義務,如駕駛人須隨時處於得以接管車輛操作之狀態,使等級3以上之自駕車所應盡之注意義務與傳統侵權行為之注意義務脫鉤處理(3)與商品責任間進行相關的調和等,然而無論如何,對於此等問題或疑慮,究竟應採何方向或多方進行,甚或以其他方式解決,則有待後續更進一步的討論與分析。 [1] Uber於該州進行自動駕駛車輛之測試。 [2] ADOT director's letter to Uber halting autonomous vehicle tests, ADOT, https://www.azdot.gov/media/News/news-release/2018/03/27/adot-director's-letter-to-uber-halting-autonomous-vehicle-tests (last visited Mar. 21, 2019); Ryan Randazzo, Arizona Gov. Doug Ducey suspends testing of Uber selfdriving cars, azcentral, Mar. 26, 2018, https://www.azcentral.com/story/news/local/tempe-breaking/2018/03/26/doug-ducey-uber-self-driving-cars-program-suspended-arizona/460915002/ (last visited Mar. 21, 2019); Ryan Randazzo, Bree Burkitt & Uriel J. Garcia, Self-driving Uber vehicle strikes, kills 49-year-old woman in Tempe, azcentral, Mar. 19, 2018, https://www.azcentral.com/story/news/local/tempe-breaking/2018/03/19/woman-dies-fatal-hit-strikes-self-driving-uber-crossing-road-tempe/438256002/ (last visited Mar. 21, 2019). [3] 蘋果日報,〈台灣首例!特斯拉自動駕駛闖禍 國道上撞毀警車〉,2018/12/12,https://tw.appledaily.com/new/realtime/20181212/1482416/ (最後瀏覽日:2019/03/21)。 [4] 96年台上字第1649號判決。 [5] 19年上字第2476號判例。 [6] 王澤鑑,《侵權行為法》,自版,頁308-309(2011)。 [7] SAE International Releases Updated Visual Chart for Its “Levels of Driving Automation” Standard for Self-Driving Vehicles, SAE International, https://www.sae.org/news/press-room/2018/12/sae-international-releases-updated-visual-chart-for-its-%E2%80%9Clevels-of-driving-automation%E2%80%9D-standard-for-self-driving-vehicles (last visited Mar. 22, 2019). [8] 97年度台上字第864號判決。

營業秘密管理概要

TOP