可專利性(Patentability)與專利適格(Patent-Eligibility)常被混用,但實際上兩者並不可以畫上等號。
具專利適格不等於可專利一事,在指標判例In re Bilski可窺知端倪:「新穎性(Novelty)、進步性(Non-obviousness,或稱非顯而易見性)的分析,和35 U.S.C. §101(專利適格的法源)無關,而是分別以35 U.S.C. §102、35 U.S.C. §103作為法源。」顯示專利適格、實用性(Utility,或稱「產業利用性」)、新穎性、進步性,互不隸屬。梳理美國專利法教課書(Casebook)和判決內容,可知:「專利適格」是取得專利的基礎門檻、資格,具專利適格,並不必然可專利,還須符合實用性、新穎性、可進步性,才是一個「可專利」的發明。另應強調,「專利適格」除了需要滿足§101法條文字外,還需要滿足美國專利與商標局(USPTO)的兩階段標準(Two-Step Test)審查。
綜上,可整理出這個公式:
可專利性=專利適格(§101+兩階段標準)+實用性(§101)+新穎性(§102)+進步性(§103)
觀察美國專利法教科書的編排方式,亦可了解思考脈絡:先介紹專利適格,再依序介紹實用性、新穎性、進步性。另,「實用性」在作為名詞時是採“Utility”一字,而非“Usefulness”,這兩個詞微妙的差異是前者具「有價值的(Beneficial)」之意涵,也呼應Justice Story在 Bedford v. Hunt對「實用」(Useful)經常被援引的解釋:「要能在社會中做出有價值的(Beneficial)應用,不可以是對道德、健康、社會秩序有害(Injurious)的發明,也不可以是瑣碎(Frivolous)或不重要的(Insignificant)。」
本文為「經濟部產業技術司科技專案成果」
美國加州州長於2021年10月6日正式簽署《基因資訊隱私法》(Genetic Information Privacy Act, GIPA), 將於2022 年 1 月 1 日生效。GIPA在聯邦法和州隱私法的框架下,補充建立基因資訊保護機制,規範無醫護人員參與的「直接面對消費者基因檢測公司」(Direct-to-consumer genetic testing company,下稱DTC公司)之個資保護義務,並要求DTC公司執行下列消費者基因資料(去識別化資料除外)之蒐集、利用、揭露,須獲消費者明示同意: 利用DTC公司產品或服務所蒐集之基因資料,應取得同意。其同意書須載明近用對象、共享方式,以及具體利用目的。 初步測試完成後儲存生物樣本,應取得同意。 目的外利用該基因資料或樣本,應取得同意。 向服務提供商外之第三方傳輸或揭露該基因資訊或樣本,應取得同意。其同意書須載明該第三方之名稱。 分析行銷或第三方依消費紀錄所進行之促銷,應取得同意。 上開同意之取得,不可使用黑暗模式(dark patterns)誤導消費者,並必須針對資料或樣本採取合理安全維護措施。 GIPA也新增消費者權利,保障消費者近用權和刪除權,DTC公司須制定政策,使消費者易於近用基因資料、刪除帳戶與基因資料、銷毀生物樣本等,並須於消費者依法撤回同意後30日內銷毀之,不得因行使權利而有差別待遇。DTC公司若GIPA違反規定,消費者擁有私人訴訟權。
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。
阿爾卡特朗訊上訴要求微軟支付15億美元的損害賠償對於微軟的Windows Media player侵害MP3科技的兩項專利,阿爾卡特朗訊公司7月7日向美國巡迴上訴法院提起訴訟,要求回復對微軟的專利侵權懲罰。 聖地牙哥陪審團在去年2月裁定微軟應就侵害兩項專利權支付15億美元賠償金。微軟爭執這項裁定沒有任何法律或事實上的依據,對此,美國地方法院法官Brewster同意微軟的主張,認為兩項專利侵權的標的中,微軟並未侵害其中一項,而另一項專利,微軟擁有德國Fraunhofer公司的授權,因此法官判定陪審團的裁定並無充足的證據支持,微軟無須支付15億美元的損害賠償。 阿爾卡特朗訊公司宣稱MP3的專利在1989年由AT&T的研發部門貝爾實驗室與Fraunhofer公司共同研發,但朗訊科技在1996年脫離AT&T成為一家獨立的公司,並保留貝爾實驗室的多項專利資產。2006年阿爾卡特與朗訊合併為阿爾卡特朗訊公司,所以該項專利係屬阿爾卡特朗訊公司所有。 微軟發言人表示,Brewster法官的判決是正確的。其中一項專利是微軟向Fraunhofer支付一千六百萬美元授權金而獲得的授權。 阿爾卡特朗訊和微軟對於這場專利爭訟都十分堅持自己的立場,目前尚未有任何跡象顯示未來雙方有和解的可能,看來這場專利戰爭還會持續很久。
日本智慧交通挑戰計畫日本經濟產業省於2018年召開「IoT和AI可能衍生之新型態交通服務研究會」(IoTやAIが可能とする新しいモビリティサービス関する研究会),並於2019年4月公布「朝向新型態交通服務之活性化」(新しいモビリティーサービスの活性化に向けて)報告;國土交通省亦自2018年底起召開「都市與地方新型態交通服務懇談會」(都市と地方の新たなモビリティサービス懇談会),於2019年3月公布中間結果。經產省和國土省根據上述會議結論,自2019年4月起,發起支援地方政府挑戰推動新型態交通服務之新計畫「智慧交通挑戰」(スマートモビリティチャレンジ)。 「智慧交通挑戰」計畫之目的,在於促使地方政府與企業合作,以實現自動駕駛社會,並透過新型態交通服務解決既有交通問題和加速地方活性化,其具體措施包括︰(1)透過設置「智慧交通挑戰推進協議會」及舉辦論壇,促進地方政府和企業間共享資訊,形成工作網路;(2)經濟產業省補助新型態交通服務實用化、計畫制定和效果分析等計畫;(3)國土交通省補助MaaS等新型態交通服務實驗,以及建構以解決地區交通服務為目的之模型等計畫。經產省與國土省分別自4月起對外公開募集提案,最終於75個提案中選出28個計畫,將於今年起陸續施行。