現年八十六歲的奧地利老人 Nikolai Borg ,決定對德國著名汽車公司 --- 福斯汽車提起訴訟,請求該公司對外正式發表聲明,宣示其才是該公司 VW 商標真正的設計者。該項訴訟費用已經獲得奧地利貿易協會的資助。
Volkswagen 的原意為「國民車」,起源於納粹德國的國民車計畫,是當時納粹政府「由歡愉獲得力量計畫」( the Nazi Kraft durch Freude propaganda scheme )中的一部份,當時政府一方面奴役勞工,但一方面也希望建立一個世界上最完善的社會福利制度,故也希望建造出每個勞工都開得起的汽車。
從 1950 年起 Borg 便為 VW 商標而戰,但從未成功。其非難福斯公司因為不敢面對納粹難堪的過去,因此也不承認對其應負的責任。 Borg 指出,當時納粹時期的德國交通部長 Fritz Todt 委任他設計商標,當時有三個計畫需要設計標誌,不過由於國民車的計畫是一個新的計畫,因此 Todt 希望他可以設計國民車的標誌。由於當時為公部門工作所得之創意產物是不可能申請智慧財產權的,因此 Borg 在設計出該標誌後,並未獲得任何權利,儘管戰後其多次與福斯公司交涉,希望該公司承認其才是真正的商標設計者,但截至目前為止,福斯公司都聲稱該公司的標誌到底是誰設計的,目前已經無法得知。(科法中心 劉憶成編譯)
本文為「經濟部產業技術司科技專案成果」
近期美國與中國大陸雙方針對貿易問題展開激烈攻防,起因為美國冀望透過「貿易戰」扭轉中美龐大的貿易逆差,而其中一個主要爭議點即為中國大陸日趨嚴重之侵權仿冒等問題。 中國大陸於第十三屆全國人大常委會表決通過最高人民法院提請審議的《關於專利等案件訴訟程式若干問題的決定》,批准最高人民法院設立知識產權法庭,主要審理專利等專業技術性較強的知識產權民事及行政上訴案件,以達成知識產權案件審理專門、集中及人員專業化之目的,提供更為專業之司法服務及保障。由最高人民法院知識產權法庭統一審理發明和實用新型專利為主之上訴案件,有利於對中外企業知識產權之保護,實現知識產權效力判斷與侵權判斷兩大訴訟程式和裁判標準的對接,以利解決機制上之裁判尺度不一問題,提高知識產權審判品質效率,提升司法公信力。 值得注意的是,最高人民法院知識產權法庭審理之案件,僅以不服知識產權一審判決、裁定中發明和實用新型專利等案件,其他上訴案件,仍由智慧財產權法院所在地的高級人民法院審理。中國大陸最高人民法院院長周強表示,知識產權法庭之設立,宣示平等保護中外市場主體知識產權,該知識產權法庭並不會處理與不正當競爭、商標或營業秘密有關之案件。
可專利性(Patentability)與專利適格(Patent-Eligibility)有何不同?可專利性(Patentability)與專利適格(Patent-Eligibility)常被混用,但實際上兩者並不可以畫上等號。 具專利適格不等於可專利一事,在指標判例In re Bilski可窺知端倪:「新穎性(Novelty)、進步性(Non-obviousness,或稱非顯而易見性)的分析,和35 U.S.C. §101(專利適格的法源)無關,而是分別以35 U.S.C. §102、35 U.S.C. §103作為法源。」顯示專利適格、實用性(Utility,或稱「產業利用性」)、新穎性、進步性,互不隸屬。梳理美國專利法教課書(Casebook)和判決內容,可知:「專利適格」是取得專利的基礎門檻、資格,具專利適格,並不必然可專利,還須符合實用性、新穎性、可進步性,才是一個「可專利」的發明。另應強調,「專利適格」除了需要滿足§101法條文字外,還需要滿足美國專利與商標局(USPTO)的兩階段標準(Two-Step Test)審查。 綜上,可整理出這個公式: 可專利性=專利適格(§101+兩階段標準)+實用性(§101)+新穎性(§102)+進步性(§103) 觀察美國專利法教科書的編排方式,亦可了解思考脈絡:先介紹專利適格,再依序介紹實用性、新穎性、進步性。另,「實用性」在作為名詞時是採“Utility”一字,而非“Usefulness”,這兩個詞微妙的差異是前者具「有價值的(Beneficial)」之意涵,也呼應Justice Story在 Bedford v. Hunt對「實用」(Useful)經常被援引的解釋:「要能在社會中做出有價值的(Beneficial)應用,不可以是對道德、健康、社會秩序有害(Injurious)的發明,也不可以是瑣碎(Frivolous)或不重要的(Insignificant)。」
談業界控管奈米風險之自主管理機制-以杜邦公司奈米風險架構為中心 世界衛生組織公布「人工智慧於健康領域之倫理與治理」指引世界衛生組織(World Health Organization, WHO)於2021年6月底公布「人工智慧於健康領域之倫理與治理」(Ethics and governance of artificial intelligence for health)指引。目前人工智慧於在改善診斷、治療、健康研究、藥物開發及公共衛生等健康領域皆有廣泛之應用與前景,而該指引首先指出人工智慧應用於健康領域中最相關之法律與政策外,並強調相關應用皆須以「倫理」及「人權」作為相關技術設計、部署與使用之核心,最後則提出人工智慧應用於健康領域之六大關鍵原則: 一、保護人類自主性(autonomy):本指引認為人類仍應該掌有關於醫療保健系統之所有決定權,而人工智慧只是輔助功能,無論是醫療服務提供者或患者皆應在知情之狀態下作決定或同意。 二、促進人類福祉、安全與公共利益:人工智慧不應該傷害人類,因此須滿足相關之事前監管要求,同時確保其安全性、準確性及有效性,且其不會對患者或特定群體造成不利影響。 三、確保透明度、可解釋性與可理解性(intelligibility):開發人員、用戶及監管機構應可理解人工智慧所作出之決定,故須透過記錄與資訊揭露提高其透明度。 四、確立責任歸屬(responsibility)與問責制(accountability):人工智慧在醫學中所涉及之內部責任歸屬相當複雜,關於製造商、臨床醫師及病患間相關之問責機制之設計將會成為各國之挑戰,故須存在有效之機制來確保問責,也應避免責任分散之問題產生。 五、確保包容性(inclusiveness)與衡平性(equity):應鼓勵應用於健康領域之人工智慧能被廣泛且適當地使用,無論年齡、性別、收入及其他特徵而有差別待遇,且應避免偏見之產生。 六、促進具適應性(responsive)及可持續性之人工智慧:人工智慧應符合設計者、開發者及用戶之需求與期待,且能充分具適應性之回應且符合使用環境中之要求。