智慧財產法院成立及運作的政策 正式啟動

  司法院於94年年終記者會時,正式發佈我國智慧財產法院即將成立及運作的政策。有鑒於國內外企業在台的專利、商標、著作權等紛爭越來越多,為了節省司法資源、快速釐清企業糾紛、不耗損社會資源等目的,智慧財產法院乃為司法現代化相當重要的一環。


  我國的智財官司時,多是以刑事訴訟為主附帶民事官司,有別於歐美各國的智慧財產案件多以民事訴訟為主。未來智慧財產法院所管轄案件除了民事訴訟事件、刑事訴訟案件外,還包括有行政訴訟事件與強制執行事件,集中事權,專責審理智財權相關案件。此外,為了因應科技界日新月異的技術發展,在智慧財產法院扮演關鍵角色的「技術審理官」,主要負責輔助法官從事專業技術問題之判斷,因此除了由全職公務員-專利審查官或是商標審查官擔任外,亦可任用公私立大專院校之老師或專業研究機構之研究員。



  另一方面,為避免大型企業利用資金優渥之優勢,打壓小型科技公司的發展,智慧財產訴訟中的「假處分」聲請規定,相較於現行民事訴訟法規定嚴格許多,假處分聲請人除提供擔保金外,還必須「強制釋明」理由,若是釋明不足者,法院可駁回其聲請。



  目前司法院已研擬完成「智慧財產法院組織法草案」及「智慧財產案件審理法草案」的全部條文,並公布在司法院網站上,預定在立法院下會期提交立法。

本文為「經濟部產業技術司科技專案成果」

相關連結
相關附件
※ 智慧財產法院成立及運作的政策 正式啟動, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=543&no=0&tp=1 (最後瀏覽日:2025/11/24)
引註此篇文章
你可能還會想看
全美各州醫療委員會聯合會發布人工智慧(AI)治理指引,並要求醫師為AI之利用結果負最終責任

全美各州醫療委員會聯合會(The Federation of State Medical Boards, FSMB)於2024年4月發布「引導人工智慧以負責任與符合倫理方式融入臨床實務」(Navigating the Responsible and Ethical Incorporation of Artificial Intelligence into Clinical Practice)指引,明確概述醫師於利用AI協助提供照護時可採取之步驟,以履行其倫理與專業職責,期能藉此降低對患者造成傷害之風險;本指引之特色在於,其要求醫師為AI之利用結果負最終之責任。 FSMB 向各州醫療委員會與其他利害關係人所提供之原則與建議如下,以支持對包含AI之臨床照護進行負責任與符合倫理之監管: (1)透明度與揭露(Transparency and Disclosure): 應要求維持於醫療照護領域使用AI之透明度;各州醫療委員會應制定明確之指導方針,向患者揭露AI之使用情況,其有助於患者與醫師之理解,但不會造成不必要之行政負擔;FSMB 應制定文件,詳細說明最常用之AI工具之功能與局限性,以協助醫療委員會發揮監管者之角色,並應制定常見問題與最佳實務文件,作為提供照護時利用AI方面關於透明度之資源。 (2)教育與理解(Education and Understanding): FSMB及其於醫學教育界之合作夥伴,應為醫師、醫療委員會與患者,確認有關醫療照護中AI之結構化教育資源,該等資源應包括協助瞭解AI如何運作、其優點、潛在風險以及對患者照護之影響。 (3)負責任之使用與問責(Responsible Use and Accountability): 開發人員應協助醫師瞭解何時、以及如何於患者之照護中利用AI工具;選擇AI工具支援臨床決策之醫院系統、保險公司或其他機構應向醫師提供有關AI工具之教育、存取各工具之性能報告,並應設計一個定期檢視工具功效的流程;AI工具應以得使各州醫療委員會能稽核與理解之方式設計,以便適當評估依賴工具輸出結果之醫師是否偏離照護標準(standard of care);FSMB 應支持各州醫療委員會針對臨床醫師如何負責任、可問責地使用AI之解釋。 (4)公平性與近用(Equity and Access): 應努力確保所有患者皆能公平地近用AI帶來之好處;FSMB與各州醫療委員會致力於以下原則:醫療人員所提供之照護是公平的、且不受基於種族、民族或其他形式歧視之偏見影響;FSMB應與其他利害關係人一起理解並解決演算法偏差問題。 (5)隱私與資料安全(Privacy and Data Security): AI工具之開發者必須實施嚴格之保護措施,以保護AI開發與評估時所利用之患者資料,通常情況下應告知患者資料如何被利用,且FSMB應與行業利害相關人一起制定AI系統使用與散布患者資料之政策,包括針對AI開發或評估中使用之患者資料之最低資料保護措施。 (6)監督與監管(Oversight and Regulation): 各州醫療委員會必須保留對於提供醫療服務時,不當應用AI工具之醫生進行紀律處分之權力,其包括問責議題之考慮,特別是當AI系統變得更加自主時;各州醫療委員會應審查其管轄範圍內如何對「醫療行為」(practice of medicine)進行法律定義,以確保對提供醫療照護、人力或其他方面進行持續之監管監督。 (7)法律法規之持續審查與調整(Continual Review and Adaptation of Law and Regulations): 各州醫療委員會應在FSMB之支持下,隨著AI之不斷發展,持續檢視與更新與AI相關之指引與法規;政策制定者應考慮AI對基本法律原則的影響,例如醫療行為之定義以及AI對企業醫學實務之影響;FSMB 應建立一個專門團隊,持續檢視與調整AI指引與法規。 本指引指出,AI工具通常無能力取代醫師之專業判斷、道德責任或對州醫療委員會之責任,醫療行為中之關鍵職業責任始終為確保診斷、臨床決策與建議不存在偏差。與用於診斷或治療疾病之任何其他工具或鑑別方法相同,醫療專業人員有責任確保基於證據結論之準確性與真實性,因此於將AI系統用於患者照護前,醫師應以合理努力識別與解決偏差(如虛假或不準確之資訊等)。

英國發布《AI保證介紹》指引,藉由落實AI保證以降低AI系統使用風險

英國發布《AI保證介紹》指引,藉由落實AI保證以降低AI系統使用風險 資訊工業策進會科技法律研究所 2024年03月11日 人工智慧(AI)被稱作是第四次工業革命的核心,對於人們的生活形式和產業發展影響甚鉅。各國近年將AI列為重點發展的項目,陸續推動相關發展政策與規範,如歐盟《人工智慧法》(Artificial Intelligence Act, AI Act)、美國拜登總統簽署的第14110號行政命令「安全可靠且值得信賴的人工智慧開發暨使用」(Executive Order on the Safe, Secure, and Trustworthy Development and Use of Artificial Intelligence)、英國「支持創新的人工智慧監管政策白皮書」(A Pro-innovation Approach to AI Regulation)(下稱AI政策白皮書)等,各國期望發展新興技術的同時,亦能確保AI使用的安全性與公平性。 壹、事件摘要 英國科學、創新與技術部(Department for Science, Innovation and Technology,DSIT)於2024年2月12日發布《AI保證介紹》(Introduction to AI assurance)指引(下稱AI保證指引),AI保證係用於評測AI系統風險與可信度的措施,於該指引說明實施AI保證之範圍、原則與步驟,目的係為讓主管機關藉由落實AI保證,以降低AI系統使用之風險,並期望提高公眾對AI的信任。 AI保證指引係基於英國政府2023年3月發布之AI政策白皮書提出的五項跨部會AI原則所制定,五項原則分別為:安全、資安與穩健性(Safety, Security and Robustness)、適當的透明性與可解釋性(Appropriate Transparency and Explainability)、公平性(Fairness)、問責與治理(Accountability and Governance)以及可挑戰性 與補救措施(Contestability and Redress)。 貳、重點說明 AI保證指引內容包含:AI保證之適用範圍、AI保證的三大原則、執行AI保證的六項措施、評測標準以及建構AI保證的五個步驟,以下將重點介紹上開所列之規範內容: 一、AI保證之適用範圍: (一)、訓練資料(Training data):係指研發階段用於訓練AI的資料。 (二)、AI模型(AI models):係指模型會透過輸入的資料來學習某些指令與功能,以幫助建構模模型分析、解釋、預測或制定決策的能力,例如GPT-4。,如GPT-4。 (三)、AI系統(AI systems):係利用AI模型幫助、解決問題的產品、工具、應用程式或設備的系統,可包含單一模型或多個模型於一個系統中。例如ChatGPT為一個AI系統,其使用的AI模型為GPT-4。 (四)、廣泛的AI使用(Broader operational context):係指AI系統於更為廣泛的領域或主管機關中部署、使用的情形。 二、AI保證的三大原則:鑒於AI系統的複雜性,須建立AI保證措施的原則與方法,以使其有效執行。 (一)、衡量(Measure):收集AI系統運行的相關統計資料,包含AI系統於不同環境中的性能、功能及潛在風險影響的資訊;以及存取與AI系統設計、管理的相關文件,以確保AI保證的有效執行。 (二)、評測(Evaluate):根據監管指引或國際標準,評測AI系統的風險與影響,找出AI系統的問題與漏洞。 (三)、溝通(Communicate):建立溝通機制,以確保主管機關間之交流,包含調查報告、AI系統的相關資料,以及與公眾的意見徵集,並將上開資訊作為主管機關監理決策之參考依據。 三、AI保證的六項措施:主管機關可依循以下措施評測、衡量AI系統的性能與安全性,以及其是否符合法律規範。 (一)、風險評估(Risk assessment):評測AI系統於研發與部署時的風險,包含偏見、資料保護和隱私風險、使用AI技術的風險,以及是否影響主管機關聲譽等問題。 (二)、演算法-影響評估(Algorithmic-impact assessment):用於預測AI系統、產品對於環境、人權、資料保護或其他結果更廣泛的影響。 (三)、偏差審計(Bias audit):用於評估演算法系統的輸入和輸出,以評估輸入的資料、決策系統、指令或產出結果是否具有不公平偏差。 (四)、合規性審計(Compliance audit):用於審查政策、法律及相關規定之遵循情形。 (五)、合規性評估(Conformity assessment):用於評估AI系統或產品上市前的性能、安全性與風險。 (六)、型式驗證(Formal verification):係指使用數學方法驗證AI系統是否滿足技術標準。 四、評測標準:以國際標準為基礎,建立、制定AI保證的共識與評測標準,評測標準應包含以下事項: (一)、基本原則與術語(Foundational and terminological):提供共享的詞彙、術語、描述與定義,以建立各界對AI之共識。 (二)、介面與架構(Interface and architecture):定義系統之通用協調標準、格式,如互通性、基礎架構、資料管理之標準等。 (三)、衡量與測試方式(Measurement and test methods):提供評測AI系統的方法與標準,如資安標準、安全性。 (四)、流程、管理與治理(Process, management, and governance):制定明確之流程、規章與管理辦法等。 (五)、產品及性能要求(Product and performance requirements):設定具體的技術標準,確保AI產品與服務係符合規範,並透過設立安全與性能標準,以達到保護消費者與使用者之目標。 五、建構AI保證的步驟(Steps to build AI assurance) (一)、考量現有的法律規範(Consider existing regulations):英國目前雖尚未針對AI制定的法律,但於AI研發、部署時仍會涉及相關法律,如英國《2018年資料保護法》(Data Protection Act 2018)等,故執行AI保證時應遵循、考量現有之法律規範。 (二)、提升主管機關的知識技能(Upskill within your organisation):主管機關應積極了解AI系統的相關知識,並預測該機關未來業務的需求。 (三)、檢視內部風險管理問題(Review internal governance and risk management):須適時的檢視主管機關內部的管理制度,機關於執行AI保證應以內部管理制度為基礎。 (四)、尋求新的監管指引(Look out for new regulatory guidance):未來主管機關將制定具體的行業指引,並規範各領域實踐AI的原則與監管措施。 (五)、考量並參與AI標準化(Consider involvement in AI standardisation):私人企業或主管機關應一同參與AI標準化的制定與協議,尤其中小企業,可與國際標準機構合作,並參訪AI標準中心(AI Standards Hubs),以取得、實施AI標準化的相關資訊與支援。 參、事件評析 AI保證指引係基於英國於2023年發布AI政策白皮書的五項跨部會原則所制定,冀望於主管機關落實AI保證,以降低AI系統使用之風險。AI保證係透過蒐集AI系統運行的相關資料,並根據國際標準與監管指引所制定之標準,以評測AI系統的安全性與其使用之相關影響風險。 隨著AI的快速進步及應用範疇持續擴大,於各領域皆日益重要,未來各國的不同領域之主管機關亦會持續制定、推出負責領域之AI相關政策框架與指引,引導各領域AI的開發、使用與佈署者能安全的使用AI。此外,應持續關注國際間推出的政策、指引或指引等,研析國際組織與各國的標準規範,借鏡國際間之推動作法,逐步建立我國的AI相關制度與規範,帶動我國智慧科技產業的穩定發展外,同時孕育AI新興產應用的發展並打造可信賴、安全的AI使用環境。

放寬視障者及閱讀障礙者著作權合理使用之範圍

  2009年5月,巴西、厄瓜多爾及巴拉圭於世界智慧財產權組織(The World Intellectual Property Organization,以下簡稱WIPO)之著作權及其相關權利常務理事會(Standing Committee on Copyright and Related Right, 以下簡稱SCCR)中,根據世界盲人聯盟(World Blind Union ,以下簡稱WBU)所草擬的一份關於「促進視障者(Visually Impaired Persons,以下簡稱VIPs)及閱讀障礙者接觸受著作權保護之資訊」國際性公約,內容為提出增訂著作權的限制及例外(limitations and exceptions)條款的相關主張,亦即針對視障者及閱讀障礙者放寬著作權合理使用範圍。   SCCR的會員,將就此草擬公約於2010年5月26日至28日進行協商討論,其協商結果亦將於日內瓦下一屆會議中提出討論。 另外,WIPO也透過網路開放之平台,開放各界參與本議題之討論(https://www3.wipo.int/forum/),該網路論壇將持續開放討論至2010年6月20日,並決定加快有利於視障者接觸資訊之相關問題。 目前全球有超過3億1千4百萬盲人或視障者,但目前於全球各地,供給視障者及閱讀障礙者閱讀或收聽資訊的工具很少,在多數國家中,尤其是發展中國家,此將影響其教育及就業機會,甚至使其更陷於弱勢地位。而為促進保障視障者及閱讀障礙者接觸資訊的權利,例如藉由點字書(Braille)、大字本(large print)等科技產品,俾利提供給視障者及閱讀障礙者閱讀或收聽的工具。但如何結合現代科技、增進其接取資訊的機會與放寬著作權相關規定;亦即如何讓著作權所有人的權利受到保護,以及有利於盲人或視障者接觸資訊,兩者間如何取得平衡,其著作權合理使用範圍是需要再思考的問題。

美國簽署晶片和科技法案,全球科技業將掀起波瀾

  美國近日為防堵中國、其他受關注國家如俄羅斯等國掌握半導體等高科技行業關鍵技術,遂致力於加強培養其本土之半導體及高科技通訊產業。於美國時間2022年8月9日美國總統拜登簽署 「2022年晶片和科技法案」 (CHIPS and Science Act 2022),該法案除可作為2021年頒布之「美國電信法案」之補助資金來源,發展開放式無線電接取網路(Open Radio Access Network, ORAN)外,亦有望大幅度提升美國本土晶片生產量。   本法案提高美國聯邦政府對科學技術研究及開發專案之授權,除授權美國商務部(Department of Commerce , DOC)、國防部(Department of Defense, DOD)外,還結合國務院(Department of State, DOS)透過資金補助之方式,發展影響美國競爭力及國家安全至關重要之半導體製造等高科技產業、人工智慧、量子計算等科學研究,本法案整體編列之預算高達2800億美元,至2027年時,授權金額預計將達1740億美元,而其中將挹注超過520億美元之資金用於發展美國本土晶片之生產及研發。   此外,該法案設有靜態限制,禁止接受補助之半導體企業投資以電子設計自動化(Electronic design automation, EDA)工具設計或製造晶片之中國公司,換句話言,即受補助之企業不得於十年內投資或擴大生產中國製低於28奈米之先進晶片。本法案亦提供25%之稅收優惠予於美國建造、裝設晶片廠之業者,以鼓勵企業進駐美國藉以提升美國生產之晶片總量,同時藉由企業之投資帶動美國各地經濟發展,提高就業率。   藉由本法案之制定,有望降低美國對其他國家晶片之依賴,並得藉此發展科技研究,對未來全球高科技產業供應鏈將造成偌大影響,值得持續關注。

TOP