可專利性(Patentability)與專利適格(Patent-Eligibility)常被混用,但實際上兩者並不可以畫上等號。
具專利適格不等於可專利一事,在指標判例In re Bilski可窺知端倪:「新穎性(Novelty)、進步性(Non-obviousness,或稱非顯而易見性)的分析,和35 U.S.C. §101(專利適格的法源)無關,而是分別以35 U.S.C. §102、35 U.S.C. §103作為法源。」顯示專利適格、實用性(Utility,或稱「產業利用性」)、新穎性、進步性,互不隸屬。梳理美國專利法教課書(Casebook)和判決內容,可知:「專利適格」是取得專利的基礎門檻、資格,具專利適格,並不必然可專利,還須符合實用性、新穎性、可進步性,才是一個「可專利」的發明。另應強調,「專利適格」除了需要滿足§101法條文字外,還需要滿足美國專利與商標局(USPTO)的兩階段標準(Two-Step Test)審查。
綜上,可整理出這個公式:
可專利性=專利適格(§101+兩階段標準)+實用性(§101)+新穎性(§102)+進步性(§103)
觀察美國專利法教科書的編排方式,亦可了解思考脈絡:先介紹專利適格,再依序介紹實用性、新穎性、進步性。另,「實用性」在作為名詞時是採“Utility”一字,而非“Usefulness”,這兩個詞微妙的差異是前者具「有價值的(Beneficial)」之意涵,也呼應Justice Story在 Bedford v. Hunt對「實用」(Useful)經常被援引的解釋:「要能在社會中做出有價值的(Beneficial)應用,不可以是對道德、健康、社會秩序有害(Injurious)的發明,也不可以是瑣碎(Frivolous)或不重要的(Insignificant)。」
本文為「經濟部產業技術司科技專案成果」
美國最高法院於2月22日針對Life Technologies Corp. v. Promega Corp.一案作出判決,對於向美國境外供應多元件侵權產品的其中單一元件,並不構成35 U.S.C. 271(f)(以下稱271(f))的侵權責任。 美國醫療生技公司Promega控告同業LifeTech侵害其專利,指稱LifeTech所製造的基因檢測套件中之組裝元件中之DNA聚合酶元件(Taq polymerase)是由美國製造,運送到英國組裝後,再販售至世界各地。Promega認為LifeTech將單一元件輸出至英國組裝的行為,已違反271(f)(1)中的「境外組裝」規定。 該案爭點之一在271(f)(1)之詮釋及適用爭議:「一當事人未經授權自美國向境外供應專利中全部或相當部份("all or a substantial portion")之元件,若元件尚未組合,而在美國境外將主要部分加以組合,如同其在美國境內將該元件組合,應視為侵權者而負其責任。」 地院認為271(f)(1)中的"all or a substantial portion"不符合本案只提供單一元件之情形,判定侵權不成立。不過CAFC認為地院有不當解釋271(f)(1),故認定LifeTech所販售的聚合酶元件符合271(f)(1)規定的"substantial portion"應解釋為"重要的部分",故推翻一審判決,判定侵權成立。 最高法院解讀271(f)(1)時,將其中的"substantial portion"解釋為"大量"或"多的",因此認定所述"單一元件"並不構成271(f)(1)中的"substantial portion",原因為單一元件並非法條所指的"多量"。 最終,最高法院認為,本案被告僅供應"單一元件"在境外組合,因此並不構成35U.S.C.271(f)(1)法條所定義之侵權行為。 「本文同步刊登於TIPS網站(https://www.tips.org.tw )」
以色列發布人工智慧監管與道德政策以色列創新、科學及技術部(Ministry of Innovation, Science and Technology)於2023年12月17日公布以色列首個關於人工智慧的監管和道德政策,在各行各業將人工智慧作為未來發展方向的趨勢下,以多元、協作、原則、創新的理念為其導向,為了化解偏見、人類監督、可解釋性、透明度、安全、問責和隱私所帶來的衝擊,以色列整合政府部門、民間組織、學術界及私部門互相合作制定政策,以求解決人工智慧的七個挑戰,帶領以色列與國際接軌。 該人工智慧政策提出具體政策方向以制定措施,其中具有特色的三項為: 1. 軟性監管:人工智慧政策採取軟性監管制度,以OECD人工智慧原則(OECD AI Principles)為基礎,採行制定標準、監督與自律等方式促進人工智慧永續發展,注重以人為本的道德原則,強調創新、平等、可靠性、問責性。 2. 人工智慧政策協調中心(AI Policy Coordination Center):邀集專家學者成立跨部門的人工智慧政策協調中心,進行人工智慧政策研議,向政府部門監管提出建言,為人工智慧的開發使用建立風險管理,並代表國家參與國際論壇。 3. 公眾參與及國際合作:政府機關與監管機構舉辦人工智慧論壇,提出人工智慧的議題與挑戰,邀請相關人士參與討論,並積極參與國際標準制定,進行國際合作。 我國科技部在2019年邀集各領域專家學者研議提出「人工智慧科研發展指引」,強調以人為本、永續發展、多元包容為核心,以八大指引為標竿,推動人工智慧發展。我國已有跨部會溝通會議對於人工智慧法制政策進行研討,可觀察各國軟性監管措施作為我國人工智慧風險管理及產業政策參考,與國際脈動建立連結。
新加坡政府推出民眾資料共享平台MyInfo新加坡政府在2016年05月05日發表了數位平台「MyInfo」。 新加坡政府推出此一平台的目標是「以數位方式來整合目前的工作,去除現行的不便與散亂,讓民眾與政府打交道時更輕鬆 」。因此,「MyInfo」將每個新加坡公民散在各政府機關間的個人資料整合成單一檔案,使用者也可以自行決定加入額外的資訊,像是年收入、教育程度、就業情況以及家人資料。當民眾需要填寫不同的政府表單時,不需要再一直填寫重複的內容。 新加坡政府表示,每個公民可以自由決定他們要不要註冊MyInfo。當使用者選擇使用這項服務時,相關機關會針對可能被運用的資料先徵詢使用者的同意。 MyInfo計畫是由新加坡財政部與資訊通信發展管理局共同發起。新加坡政府的數位服務團隊在一年前左右開始設計這項服務,目前平台上仍持續在測試並改善使用者經驗。 MyInfo從2016年01月到04月試營運,已經有超過32,000人使用這項服務(佔新加坡總人口0.6%)。在2016年06月之前,MyInfo會提供15項服務,包括註冊公用住宅、更新報稅資料以及求職資訊等。到2018年,所有需要雙認證的數位服務都會整合在MyInfo平台,估計會有200項服務項目。 這個計畫是新加坡「數位政府」(Digital Government)政策的重要拼圖之一。新加坡政府將持續擴大MyInfo的服務項目,希望藉由此服務來蒐整更多資料,並增加可供政府機關間分享的個人資料數目。伴隨愈加豐富的數據資料,各政府部門更能事先了解民眾的需求並提出民眾真正需要的服務。
人權組織向法國最高行政法院提交申訴,要求政府停止使用歧視性演算法.Pindent{text-indent: 2em;} .Noindent{margin-left: 2em;} .NoPindent{text-indent: 2em; margin-left: 2em;} .No2indent{margin-left: 3em;} .No2Pindent{text-indent: 2em; margin-left: 3em} .No3indent{margin-left: 4em;} .No3Pindent{text-indent: 2em; margin-left: 4em} 國際特赦組織(Amnesty International)與法國數位隱私權倡議團體La Quadrature du Net(LQDN)等組織於2024年10月15日向法國最高行政法院提交申訴,要求停止法國國家家庭津貼基金機構(Caisse nationale des allocations familiales,CNAF)所使用的歧視性風險評分演算法系統。 CNAF自2010年起即慣於使用此系統識別可能進行福利金詐欺的對象,該系統演算法對獲取家庭與住房補助的對象進行0至1之間的風險評分,分數越接近1即越可能被列入清單並受調查,政府當局並宣稱此系統將有助於提升辨識詐欺與錯誤的效率。 LQDN取得該系統的原始碼,並揭露其帶有歧視性質。該等組織說明,CNAF所使用的評分演算法自始即對社會邊緣群體如身心障礙者、單親家長,與低收入、失業、居住於弱勢地區等貧困者表現出懷疑態度,且可能蒐集與系統原先目的不相稱的資訊量,這樣的方向直接違背了人權標準,侵犯平等、非歧視與隱私等權利。 依據歐盟《人工智慧法》(Artificial Intelligence Act,下稱AIA),有兩部分規定: 1. 用於公機關評估自然人是否有資格獲得基本社會福利或服務,以及是否授予、減少、撤銷或收回此類服務的人工智慧系統;以及用於評估自然人信用或建立信用評分的人工智慧系統,應被視為高風險系統。 2. 由公機關或私人對自然人進行社會評分之人工智慧系統可能導致歧視性結果並排除特定群體,從此類人工智慧總結的社會分數可能導致自然人或其群體遭受不當連結或程度不相稱的不利待遇。因此應禁止涉及此類不可接受的評分方式,並可能導致不當結果的人工智慧系統。 然而,AIA並未針對「社會評分系統」明確定義其內涵、組成,因此人權組織同時呼籲,歐盟立法者應針對相關禁令提供具體解釋,惟無論CNAF所使用的系統為何種類型,因其所具有的歧視性,公機關皆應立即停止使用並審視其具有偏見的實務做法。