美國眾議院法制委員會全體一致通過專利法2007年改革法案

  美國眾議院法制委員會於七月十八日全體一致通過「專利法2007年改革法案」( Patent Reform Act of 2007),根據美國軟體與資訊工業協會( Software & Information Industry Association,簡稱SIIA)的總裁Ken Wasch表示,該修正案的通過是美國專利制度現代化的重要指標,而一個有效率且公正的專利制度對於繼續美國國內經濟發展並領導全世界經濟時具有舉足輕重的地位。眾議院的議員Howard Berman表示,對於美國專利核發品質低落、花費高昂及時間冗長的訴訟程序已經嚴重地阻礙到創新力與創造力。這次修法的目的在於改善專利的品質、嚇阻專利所有人權利的濫用、以異議專利的有效性的方式以提供更有意義且低花費的替代式專利訴訟、並讓美國專利法能與其他國家的專利法調合。

 

  該法案除了通過的部分包括「不正當行為」(Inequitable Conduct )、「犯罪地的限制」(Restrictions on Venue)、「損害賠償的取得」(Awards of Damage)修正。最令人注意的是,刪除了最具爭議的「專利權核准後審查程序」( Posted- granted Review),該程序並無時間的限制,而始得專利侵權訴訟中之被告能夠對專利之有效性向美國專利商標局提出再審的請求。法制委員會對此程序舉行多次公聽會,但修正案仍以增加現有「專利再審制度」( Reexamination)的方式取代之。

 

  實務界認為,本修正案會使得專利的價值降低,而使得一些非以製造產品為公司營運目的,但專事經營擁有並實施專利權為主要歲收來源的「專利巨人」(Patent Tolls)公司生存困難。

相關附件
※ 美國眾議院法制委員會全體一致通過專利法2007年改革法案, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=2319&no=55&tp=1 (最後瀏覽日:2026/01/01)
引註此篇文章
你可能還會想看
歐盟執委會公布《可信賴的AI政策及投資建議》

  歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。   該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。   在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。

美國《國際緊急經濟權力法》(IEEPA)

  美國《國際緊急經濟權力法》(International Emergency Economic Powers Act, 50 U.S.C. §1701-1708,下稱IEEPA)是美國總統針對國際經濟局勢,進行多種經濟交易相關限制之法源依據─只要外來任何威脅造成美國家安全、外交政策或者經濟出現隱憂,美國總統即可按IEEPA依職權調查、管制或限制「任何與特定國家的外國匯兌交易、透過金融機構進行任何涉及該國利益的信貸移轉或支付、輸入或輸出外幣或證券;亦可凍結與特定國家或該國人民有關的財產權」。1979年,卡特總統(Jimmy Carter)援引IEEPA因應伊朗人質危機(Iran Hostage Crisis),係迄今最長時間的經濟制裁(sanction);2001年的911空襲事件之後,美國國會大幅擴張IEEPA,同時制裁阿富汗(Blocking Property and Prohibiting Transactions with the Taliban)。近期的中美貿易戰中,IEEPA亦扮演重要角色。舉例而言,2019年5月15日,美國總統川普(Donald Trump)即以IEEPA發布〈行政命令:保護資通訊技術及服務之供應鏈〉(Executive Order on Securing the Information and Communications Technology and Services Supply Chain),並於翌日將華為及其遍布26國的68間子公司列入《出口管制規則》(Export Administration Regulations, EAR)之管制名單。   美國憲法起草時,並無談及緊急權力(emergency powers)之概念,所以在過去的兩個世紀,美國總統僅能個案處理(ad hoc)緊急狀況,國會再後續追認。20世紀以降,美國開始出現緊急權力模式─透過國會立法,將原應由國會代表人民行使的權力(delegated powers)授予總統在緊急狀況下直接行使。復有1976年的《國家緊急法》(National Emergencies Act,下稱NEA),而1977年通過的IEEPA即是依NEA為法源所設。當美國總統行使IEEPA,必須遵守NEA:立即向國會發送緊急命令公告,並且將之發布於聯邦公報(Federal Register),總統亦須闡明其發布該緊急命令所援引之法源依據。《國際緊急經濟權力法》中,公權力對於私經濟的介入,則可溯及第一次世界大戰末期的《1917年對敵貿易法》(Trading with the Enemy Act of 1917),當時出現始料未及的經濟動員(economic mobilization)與制裁。

英國政府制定監管計畫以應對科技巨頭帶來的問題

  英國政府於2022年5月6日宣布將針對大型企業(major firms)壟斷市場的情況制定新的監管計畫。該監管計畫將重新平衡大型與中小企業和消費者的關係,以利中小企業和消費者受到更好的保護,並使市場競爭環境更為公平。   該監管計畫針對的大型企業,即是國際市場上的科技巨頭(tech giants),如Google and Facebook。此類科技巨頭擁有並控制大量用戶的網路資料,並將該資料應用在特定應用程式與瀏覽器的搜尋演算法上,以確保其市場壟斷地位,使潛在的競爭者難以進入市場,進而影響市場的公平競爭以及消費者的自由選擇權。為解決前揭問題,英國預計透過修法賦予競爭和市場管理局下的「數位市場部門」(Digital Markets Unit, DMU)法定權力與監管權限,並搭配措施與作法如下: 強化市場公平性:英國政府預計提出價格糾紛解決機制,平衡內容提供商(如媒體業與廣告業)與科技巨頭間的議價能力,以確保更為公平、透明的市場。此外,科技巨頭亦應將其演算法之資訊分享給一般公司,避免科技巨頭濫用其市場力量。 增進消費者權益:科技巨頭必須確保消費者在使用資訊設備或服務時有充分的自主權與選擇權。例如,於手機的IOS和 Android 系統之間轉換或是社交軟體帳戶之間的資訊移轉時不會喪失其資料和訊息。DMU也將限制公司預先安裝瀏覽器、社交軟體等APP,讓消費者在APP上有更多選擇權。而隨著新業者進入市場,智慧型手機用戶將可以有更多搜尋引擎和社交平台選擇。此外消費者亦可選擇退出具有針對性的個人化廣告發送,以達成讓消費者擁有更多的資料自主權。   為能有效落實上述措施,DMU將有權指定特定企業為具有「戰略市場地位」(strategic market status)的公司。指定標準將依公司的營業額、對消費者的影響力、對市場活動的影響力、公司的活躍程度與規模等綜合評估,檢視其是否達到強大且根深蒂固的力量(substantial and entrenched market power)。DMU並將針對少數主導數位市場的企業應如何公平對待其用戶和其他公司提出行為準則。被指定的公司若違反相關規範,將面臨全球年營業額最高10%的罰款,如果連續違反,則可被處以全球每日營業額5%的額外罰款。   英國政府期待透過新的監管計畫及未來的修法介入市場競爭,促使市場環境更為公平且適於創新,同時讓消費者擁有更多選擇權。英國新監管計畫之實施情形,值得持續關注。

日本內閣通過AI研發及活用推進法草案

日本內閣於2025年2月28日通過並向國會提出《人工智慧相關技術研究開發及活用推進法案》(人工知能関連技術の研究開発及び活用の推進に関する法律案,以下簡稱日本AI法),旨在兼顧促進創新及風險管理,打造日本成為全球最適合AI研發與應用之國家。規範重點如下: 1. 明定政府、研究機構、業者與國民之義務:為確保AI開發與應用符合日本AI法第3條所定之基本原則,同法第4至第9條規定,中央及地方政府應依據基本原則推動AI相關政策,研發法人或其他進行AI相關研發之機構(以下簡稱研究機構)、提供AI產品或服務之業者(以下簡稱AI業者)及國民則有配合及協助施政之義務。 2. 強化政府「司令塔」功能:依據日本AI法第15條及第17至第28條規定,日本內閣下應設置「AI戰略本部」,由首相擔任本部長,負責制定及推動AI基本計畫,統籌推動AI技術開發與應用相關政策,並促進AI人才培育、積極參與國際交流與合作。 3. 政府調查及資訊蒐集機制:為有效掌握AI開發、提供及應用狀況,防止AI應用侵害民眾權益,日本AI法第16條規定政府應蒐集、分析及調查國內外AI技術研發及應用趨勢,並得基於上述結果,對研究機構或AI業者採取指導、建議或提供資料等必要措施。

TOP