智慧財產法院成立及運作的政策 正式啟動

  司法院於94年年終記者會時,正式發佈我國智慧財產法院即將成立及運作的政策。有鑒於國內外企業在台的專利、商標、著作權等紛爭越來越多,為了節省司法資源、快速釐清企業糾紛、不耗損社會資源等目的,智慧財產法院乃為司法現代化相當重要的一環。


  我國的智財官司時,多是以刑事訴訟為主附帶民事官司,有別於歐美各國的智慧財產案件多以民事訴訟為主。未來智慧財產法院所管轄案件除了民事訴訟事件、刑事訴訟案件外,還包括有行政訴訟事件與強制執行事件,集中事權,專責審理智財權相關案件。此外,為了因應科技界日新月異的技術發展,在智慧財產法院扮演關鍵角色的「技術審理官」,主要負責輔助法官從事專業技術問題之判斷,因此除了由全職公務員-專利審查官或是商標審查官擔任外,亦可任用公私立大專院校之老師或專業研究機構之研究員。



  另一方面,為避免大型企業利用資金優渥之優勢,打壓小型科技公司的發展,智慧財產訴訟中的「假處分」聲請規定,相較於現行民事訴訟法規定嚴格許多,假處分聲請人除提供擔保金外,還必須「強制釋明」理由,若是釋明不足者,法院可駁回其聲請。



  目前司法院已研擬完成「智慧財產法院組織法草案」及「智慧財產案件審理法草案」的全部條文,並公布在司法院網站上,預定在立法院下會期提交立法。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 智慧財產法院成立及運作的政策 正式啟動, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=543&no=0&tp=1 (最後瀏覽日:2026/04/15)
引註此篇文章
你可能還會想看
日本擬以金融商品交易法對虛擬貨幣之首次代幣發行予以監管

  由日本金融廳(FSA)與各界相關人士組成的「虛擬貨幣交換產業相關研究會」(仮想通貨交換業等に関する研究会)於2018年11月2日再度召開會議,本次會議主要針對是否需就ICO監管予以討論。   按ICO,乃是指虛擬貨幣之首次代幣發行(Initial Coin Offering),即向社會大眾發行數位代幣(token),並收取主流虛擬貨幣之籌資行為。在過去,日本僅以向金融廳諮詢會報的方式督導,對於虛擬貨幣之交易所僅課予註冊義務,並未對於ICO行為予以規範。而ICO因其大量之籌資行為可能產生之風險如詐欺、非法募資或洗錢,從而日本金融廳研擬將ICO列入「金融商品交易法」規範之。   而就ICO是否有受到金融監管之必要,會議中主要之考量有以下兩點: 使用虛擬貨幣之行為是否具有金錢上融資之功能,會議中對於不具權利性質之虛擬貨幣認為無監管必要; 引入金融監督機制是否符合社會期待。   另外,會議中並就ICO和首次公開募股(Initial Public Offerings,以下簡稱IPO)進行比較,有認為,倘若ICO具有如同IPO籌集資金之經濟功能,並且也可能產生如同IPO之相同風險,理應受到相同之規範。可為之規範例如對於賣家進行最低度審查,避免透過籌資為詐欺之可能;限制權利內容模糊不清之虛擬貨幣流通,並對發行人之財務和業務狀況進行篩選;課予ICO負有如同IPO之揭露義務,並須在網站上公布對於投資人有影響性之資訊;使發行價格更有衡量基準。另外JVCEA(日本仮想通貨交換業協会)作為監管機構,擬對於ICO在銷售開始、銷售結束,甚至銷售結束後仍課予持續的情報提供義務。   而於後續2018年11月26日召開之第十次會議中,表示對於ICO在未來不會採取禁止之態度,仍保持鼓勵之立場,但對於投資人之保護需要更全面予以考量,減少利用ICO詐欺之情形。另外,對於虛擬貨幣交換業者,需要加強對客戶財產之管理和維護,亦可能對其施加信託義務,俾利加強投資人信心。   ICO在日本非常盛行,但也因此詐欺案件頻傳,對於日本將以何種方式監管ICO;對於虛擬貨幣交換業者之規範,對投資人之保護是否足夠;又或是此類規範將形成交換業者反抗,依目前會議頻繁討論之程度應很快會有定論。惟對於此種新創之產業,往往需在監管與鼓勵發展間求取平衡,而日本在虛擬貨幣之發展上,又領先亞洲各國,對於此次監管議題後續發展,實值關注,並得以借鏡我國,作為我國在相同議題上之參考。

南韓預告修訂《個人資料保護法施行令》草案,擬擴大本人資料傳輸請求權適用範圍

2025年6月23日,韓國個人資料保護委員會(개인정보보호위원회,下簡稱個資會)宣布修訂《個人資料保護法施行令》(개인정보 보호법 시행령)草案,擴大「本人傳輸請求權」(본인전송요구권)制度的適用範圍至特定大型個人資料處理者(개인정보처리자)。 南韓政府於2024年3月開始實施MyData(마이데이터)制度,賦予其國民「本人傳輸請求權」。所謂「本人傳輸請求權」,係指當事人向資料持有者請求傳輸個人資料給自己或特定第三方的權利,而個人資料則係指包含所有能夠識別本人身分或與本人有直接關聯的資訊。 本人傳輸請求權的立法目的,在於解決當事人將資料授權予特定企業或機關使用後,無法追蹤個人資料動向的問題。當事人可透過行使本人資料傳輸請求權,隨時確認資料如何被使用、有無被再次轉交他方,以及自由決定是否收回或轉移持有者擁有的個人資料。有助於解決個人資料利用權限一經授權後便難以掌控的問題,並提高國民對於個人資料的自主控制能力。 本次修法前,本人資料請求權的適用範圍僅限於醫療與電信產業,個人資料保護法施行令預告修訂草案進一步將符合以下標準的個人資料處理者納入本人傳輸請求權適用範圍: 1. 年營業額達1500億韓元以上的企業; 2. 持有個人資料人數達100萬人以上的企業或機構; 3. 敏感資料、高識別度資料達5萬人以上的企業或機構; 4. 2萬人以上大學或公部門機關。 韓國個資會此次提出的預告修訂草案,建立了一套可跨領域適用的個人資料管理政策架構,為國民資料自主性與控制權提供更完整的保護,值得作為我國個人資料治理制度之參考。

歐盟「永續經濟活動分類規則」(Taxonomy Regulation)

  自從2004年聯合國發布之「Who Cares Wins」文件首次提及ESG原則,近年來國際企業不斷倡導ESG原則,即企業針對環境(Environmental)、社會(Social)、公司治理(Governance)三大面向之要求。歐盟從一開始倡導呼籲企業遵守ESG原則的階段逐漸發展為將ESG原則融入具有法律效力之規範。目前歐盟針對ESG原則擁有兩大基石,也就是2019年11月頒布的「歐盟永續財務揭露規則」(Sustainable Finance Disclosure Regulation)以及2020年6月頒布的「永續經濟活動分類規則」(Taxonomy Regulation)。   「永續經濟活動分類規則」係起源於歐盟委員會於2018年3月發布之「歐盟關於金融永續發展行動計畫」。直到2020年6月,歐洲議會與歐盟理事會終於共同公布「永續經濟活動分類規則」,該法規的目的為:為歐盟建立一個統一通用的法律框架,以分類經濟活動是否具有環境永續性。該法規規定所有金融商品都必須根據該分類規則進行分類。對於宣佈具有環境永續性之商品,皆必須揭露如何適用分類規則以及符合該分類規則;而針對不符合環境永續性之其他商品(包括那些具有ESG目標但不具備環境永續性的商品)將必須提出聲明該金融商品未符合歐盟的永續經濟活動分類規則。   而針對金融商品是否具備環境永續性,需視其是否對於下列事項作出重大貢獻。例如:減緩氣候變化;適應氣候變化;水和海洋資源的持續利用和保護;發展可循環性經濟;污染防治;生物多樣性和生態系統的保護和恢復。   「永續經濟活動分類規則」雖然於2020年6月公布,並於同年7月12日生效,但其中許多重要規定仍尚未明文,須待後續授權之施行細則規範。重要時程如下: 2020年12月31日通過就氣候相關目標的科技篩選標準之施行細則。 預計於2021年12月31日通過就所有其他環境相關目標的科技篩選標準之施行細則。 預計於2022年1月1日達成氣候相關之目標。 預計於2023年1月1日達成所有其他環境相關之目標。   隨著歐盟「歐盟永續財務揭露規則」以及「永續經濟活動分類規則」的發展,逐漸將ESG原則融入法規中,可以明顯看出國際間對於ESG原則愈發要求。我國金管會亦跟隨國際潮流,於2020年8月公布之「綠色金融行動方案2.0」提及永續金融之概念,是以,我國企業亦應著重企業自身針對ESG原則之要求,以與國際趨勢接軌。

歐盟執委會發布《受禁止人工智慧行為指引》

歐盟執委會發布《受禁止人工智慧行為指引》 資訊工業策進會科技法律研究所 2025年02月24日 歐盟繼《人工智慧法》[1](Artificial Intelligence Act, 下稱AI Act)於2024年8月1日正式生效後,針對該法中訂於2025年2月2日始實施之第5條1,有關「不可接受風險」之內容中明文禁止的人工智慧行為類型,由歐盟執委會於2025年2月4日發布《受禁止人工智慧行為指引》[2]。 壹、事件摘要 歐盟AI Act於2024年8月1日正式生效,為歐盟人工智慧系統引入統一之人工智慧風險分級規範,主要分為四個等級[3]: 1. 不可接受風險(Unacceptable risk) 2. 高風險(High risk) 3. 有限風險,具有特定透明度義務(Limited risk) 4. 最低風險或無風險(Minimal to no risk) AI Act之風險分級系統推出後,各界對於法規中所說的不同風險等級的系統,究竟於實務上如何判斷?該等系統實際上具備何種特徵?許多內容仍屬概要而不確定,不利於政府、企業遵循,亦不利於各界對人工智慧技術進行監督。是以歐盟本次針對「不可接受風險」之人工智慧系統,推出相關指引,目的在明確化規範內涵規範,協助主管機關與市場參與者予以遵循。 貳、重點說明 一、AI Act本文第5條1(a)、(b)-有害操縱、欺騙與剝削行為 (一)概念說明 本禁止行為規定旨在防止透過人工智慧系統施行操縱與剝削,使他人淪為實現特定目的工具之行為,以保護社會上最為脆弱且易受有害操控與剝削影響的群體。 (二)禁止施行本行為之前提要件 1.該行為必須構成將特定人工智慧系統「投放於歐盟市場」(placing on the market)[4]、「啟用」(putting into service)[5]或「使用」(use)[6]。 2.應用目的:該人工智慧系統所採用的技術具有能實質扭曲個人或團體行為的「目的」或「效果」,此種扭曲明顯削弱個人或團體做出正確決定的能力,導致其做出的決定偏離正常情形。 3.技術特性:關於(a)有害的操縱與欺騙部分,係指使用潛意識(超出個人意識範圍)、或刻意操控或欺騙的技術;關於(b)有害地利用弱勢群體部分,是指利用個人年齡、身心障礙或社會經濟狀況上弱點。 4.後果:該扭曲行為已造成或合理可預見將造成該個人、另一人或某群體的重大傷害。 5.因果關係:該人工智慧系統所採用的技術、個人或團體行為的扭曲,以及由此行為造成或可合理預見將造成的重大傷害之間,具備相當因果關係。 二、AI Act本文第5條1(c)-社會評分行為 (一)概念說明 本禁止行為規定旨在防止透過人工智慧系統進行「社會評分」可能對特定個人或團體產生歧視和不公平的結果,以及引發與歐盟價值觀不相容的社會控制與監視行為。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該人工智慧系統必須用於對一定期間內,自然人及群體的社會行為,或其已知、預測的個人特徵或人格特質進行評價或分類。 3.後果:透過該人工智慧系統所產生的社會評分,必須可能導致個人或群體,在與評分用資料生成或蒐集時無關的環境遭受不利待遇,或遭受與其行為嚴重性不合比例的不利待遇。 三、AI Act本文第5條1(d)-個人犯罪風險評估與預測行為 (一)概念說明 本禁止行為規定之目的,旨在考量自然人應依其實際行為接受評判,而非由人工智慧系統僅基於對自然人的剖析、人格特質或個人特徵等,即逕予評估或預測個人犯罪風險。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該人工智慧系統必須生成旨在評估或預測自然人施行犯罪行為風險的風險評估結果。 3.後果:前述風險評估結果僅依據於對自然人的剖析,或對其人格特質與個人特徵的評估。 4.除外規定:若人工智慧系統係基於與犯罪活動直接相關的客觀、可驗證事實,針對個人涉入犯罪活動之程度進行評估,則不適用本項禁止規定。 四、AI Act本文第5條1(e)-無差別地擷取(Untargeted Scraping)臉部影像之行為 (一)概念說明 本禁止行為規定之目的,旨在考量以人工智慧系統從網路或監視器影像中無差別地擷取臉部影像,用以建立或擴充人臉辨識資料庫,將嚴重干涉個人的隱私權與資料保護權,並剝奪其維持匿名的權利。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該行為以建立或擴充人臉辨識資料庫為目的。 3.技術特性:填充人臉辨識資料庫的方式係以人工智慧工具進行「無差別的擷取行為」。 4.因果關係:建立或擴充人臉辨識資料庫之影像來源,須為網路或監視器畫面。 五、AI Act本文第5條1(f)-情緒辨識行為 (一)概念說明 本禁止行為規定之目的,旨在考量情緒辨識可廣泛應用於分析消費者行為,以更有效率的手段執行媒體推廣、個人化推薦、監測群體情緒或注意力,以及測謊等目的。然而情緒表達在不同文化、情境與個人反應皆可能存在差異,缺乏明確性、較不可靠且難以普遍適用,因此應用情緒辨識可能導致歧視性結果,並侵害相關個人或群體的權利,尤以關係較不對等的職場與教育訓練環境應加以注意。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該系統係用於推斷情緒。 3.因果關係:該行為發生於職場或教育訓練機構。 4.除外規定:為醫療或安全目的而採用的人工智慧系統不在禁止範圍內。例如在醫療領域中,情緒辨識可協助偵測憂鬱症、預防自殺等,具有正面效果。 六、AI Act本文第5條1(g)-為推測敏感特徵所進行之生物辨識分類行為 (一)概念說明 本禁止行為規定之目的,旨在考量利用人工智慧之生物辨識分類系統(Biometric Categorisation System)[7],可依據自然人的生物辨識資料用以推斷其性取向、政治傾向、信仰或種族等「敏感特徵」在內的各類資訊,並可能在當事人不知情的情況下依據此資訊對自然人進行分類,進而可能導致不公平或歧視性待遇。 (二)禁止施行本行為之前提要件 1.該行為必須屬於將特定人工智慧系統「投放於歐盟市場」、「啟用」或「使用」。 2.應用目的:該行為係針對個人進行分類;而其辨識目的係為推斷其種族、政治傾向、工會成員身分、宗教或哲學信仰、性生活或性取向等。 3.技術特性:該系統必須為利用人工智慧,並依據自然人的生物辨識資料,將其歸類至特定類別之生物辨識分類系統。 4.因果關係:前述分類依據為其生物辨識資訊。 5.除外規定:本項禁止規定未涵蓋對合法取得的生物辨識資料進行標記(Labelling)或過濾(Filtering)行為,如用於執法目的等。 七、AI Act本文第5條1(h)-使用即時遠端生物辨識(Remote Biometric Identification, RBI)系統[8]執法[9]之行為 (一)概念說明 本禁止行為規定之目的,旨在考量在公共場所使用即時RBI系統進行執法,可能對人民權利與自由造成嚴重影響,使其遭受監視或間接阻礙其行使集會自由及其他基本權利。此外,RBI系統的不準確性,將可能導致針對年齡、族群、種族、性別或身心障礙等方面的偏見與歧視。 (二)禁止施行本行為之前提要件 1.該行為必須涉及對即時RBI系統的「使用」行為。 2.應用目的:使用目的須為執法需要。 3.技術特性:該系統必須為利用人工智慧,在無需自然人主動參與的情況下,透過遠距離比對個人生物辨識資料與參考資料庫中的生物辨識資料,從而達成識別自然人身份目的之RBI系統。 4.因果關係:其使用情境須具備即時性,且使用地點須為公共場所。 參、事件評析 人工智慧技術之發展固然帶來多樣化的運用方向,惟其所衍生的倫理議題仍應於全面使用前予以審慎考量。觀諸歐盟AI Act與《受禁止人工智慧行為指引》所羅列之各類行為,亦可觀察出立法者對人工智慧之便利性遭公、私部門用於「欺詐與利用」及「辨識與預測」,對《歐盟基本權利憲章》[10]中平等、自由等權利造成嚴重影響的擔憂。 為在促進創新與保護基本權利及歐盟價值觀間取得平衡,歐盟本次爰參考人工智慧系統提供者、使用者、民間組織、學術界、公部門、商業協會等多方利害關係人之意見,推出《受禁止人工智慧行為指引》,針對各項禁止行為提出「概念說明」與「成立條件」,期望協助提升歐盟AI Act主管機關等公部門執行相關規範時之法律明確性,並確保具體適用時的一致性。於歐盟內部開發、部署及使用人工智慧系統的私部門企業與組織,則亦可作為實務參考,有助確保其自身在遵守AI Act所規定的各項義務前提下順利開展其業務。 [1]European Union, REGULATION (EU) 2024/1689 OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL (2024), https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=OJ:L_202401689 (last visited Feb. 24, 2025). [2]Commission publishes the Guidelines on prohibited artificial intelligence (AI) practices, as defined by the AI Act., European Commission, https://digital-strategy.ec.europa.eu/en/library/commission-publishes-guidelines-prohibited-artificial-intelligence-ai-practices-defined-ai-act (last visited Feb. 24, 2025). [3]AI Act, European Commission, https://digital-strategy.ec.europa.eu/en/policies/regulatory-framework-ai (last visited Feb. 24, 2025). [4]依據本指引第2.3點,所謂「投放於歐盟市場」(placing on the market),係指該人工智慧系統首次在歐盟市場「提供」;所謂「提供」,則係指在商業活動過程中,以收費或免費方式將該AI系統供應至歐盟市場供分發或使用。 [5]依據本指引第2.3點,所謂「啟用」(putting into service),係指人工智慧系統供應者為供應使用者首次使用或自行使用,而於歐盟內供應人工智慧系統。 [6]依據本指引第2.3點,「使用」(use)之範疇雖未在AI Act內容明確定義,惟應廣義理解為涵蓋人工智慧系統在「投放於歐盟市場」或「啟用」後,其生命週期內的任何使用或部署;另參考AI Act第5條的規範目的,所謂「使用」應包含任何受禁止的誤用行為。 [7]依據AI Act第3條(40)之定義,生物辨識分類系統係指一種依據自然人的生物辨識資料,將其歸類至特定類別之人工智慧系統。 [8]依據AI Act第3條(41)之定義,RBI系統係指一種在無需自然人主動參與的情況下,透過遠距離比對個人生物辨識資料與參考資料庫中的生物辨識資料,從而達成識別自然人身份目的之人工智慧系統。 [9]依據AI Act第3條(46)之定義,「執法(law enforcement)」一詞,係指由執法機關或其委任之代表,代替其執行目的包括預防、調查、偵測或起訴刑事犯罪,或執行刑事處罰,並涵蓋防範與應對公共安全威脅等範疇之行為。 [10]CHARTER OF FUNDAMENTAL RIGHTS OF THE EUROPEAN UNION, Official Journal of the European Union, https://eur-lex.europa.eu/legal-content/EN/TXT/HTML/?uri=CELEX:12012P/TXT (last visited Feb. 24, 2025).

TOP