自2013年起,新加坡綜合考量其天然資源匱乏之劣勢與位處東南亞經貿核心之優勢,提出「智慧財產中心藍圖」(IP Hub Master Plan),目標在10年內讓新加坡成為亞洲的全球智慧財產營運中心(IP Hub),藉以打造新加坡作為亞洲金融與法律中心之重要地位;「智慧財產中心藍圖」的具體規劃包含在「交易與管理」、「高值智財申請」與「爭議解決」等三大面向,成為匯聚亞洲且面向全球的智財營運中心。
在考量全球經濟成長力趨緩,世界各國紛紛加大投資創新與數位轉型的趨勢下,新加坡智財局(IPOS)於2017年再次更新這份藍圖:盤點自本藍圖提出迄今的各項執行成果,並探討如何與世界趨勢接軌。在更新版藍圖中強調未來智慧財產在具創新力公司資產內的比重將遠高於實體財產,對智財體制的依賴將與日俱增,新加坡應及早因應以提供新創產業包含智財保護、管理與最大化智財價值等協助,以打造未來產業競爭力。
更新版藍圖引用OECD「創新就是將創意帶往市場」之定義,智財產業將成為創新型經濟(innovation-driven economy)中的關鍵。根據IPOS估計,智財交易與管理活動將為新加坡在未來5年創造至少15億新幣的產值,而未來的挑戰在於提高「智財創造」的便利、「智財保護」的普及,以及「智財商業化」的推進等三大面向;因此IPOS將加強智財檢索與政府機關間合作、協助中小企業導入智財管理制度提升企業效益,並打造無形資產評價、交易與融資平台,以達成更新版藍圖所提出之挑戰目標。
本文為「經濟部產業技術司科技專案成果」
居住於溫哥華的加拿大人Michael Hallatt(以下簡稱Hallatt),在加拿大設立了一家超市名為”Pirate Joe’s”,其貨品來源主要來自美國知名大型超商Trader Joe’s的產品,每年往來美國、加拿大平均花費近35萬美元購買Trader Joe’s的產品,包含有機沾醬、巧克力餅乾、裹著牛奶巧克力的洋芋片等熱門產品。 自稱為Trader Joe’s的最忠實客戶Hallatt,卻於今年(2013)被Trader Joe’s於美國境內提出訴訟,Trader Joe’s主張Hallatt經營Pirate Joe’s的方式侵害其商標權(trademark infringement)、不實廣告(false advertising)、使消費者誤認Pirate Joe’s有經Trader Joe’s授權或認同(false endorsement)等。 Trader Joe’s表示其花費大量時間及心力洞悉消費市場需求及產品推出時機點,逐項開發及製造產品,而Hallatt卻不費吹灰之力,直接買進相關產品後於加拿大以較高價格再次販售。Pirate Joe’s的經營模式可能誤導甚至欺瞞消費者使消費者誤認Pirate Joe’s為經過Trader Joe’s授權或同意之賣商。此外,Trader Joe’s認為Pirate Joe’s店面視覺上與Trader Joe’s超市外觀十分相近,有抄襲Trader Joe’s著名的商業表徵(South Pacific trade dress)。更甚者,Trader Joe’s認為Pirate Joe’s販售的有可能是已經受損的、過期的或其他不符合Trader Joe’s品管標準的產品,Pirate Joe’s這樣的銷售行為將導致Trader Joe’s無法解決前述所指出的產品潛在問題,嚴重毀損Trader Joe’s商譽及品牌形象。 另一方面,Hallatt則認為他僅是為了加拿大消費者方便,為消費者省去交通成本、時間等,讓消費者在加拿大即可購買到美國Trader Joe’s的產品,其認為其有權利再次銷售其合法購買取得的商品,即便他販售的價格稍微高些。 此訴訟目前仍在進行中,一方為美國知名大型超商Trader Joe’s,另一方為販售Trader Joe’s產品的加拿大超商Pirate Joe’s,在「品牌形象保護」及「產品合法再銷售範疇」兩者權衡下,究竟這場商標相關爭訟結果為何值得拭目以待。
歐盟資料保護工作小組修正通過GDPR個人資料當事人同意指引因應歐盟「通用資料保護規則」(The General Data Protection Regulation,或譯為一般資料保護規則,下簡稱GDPR)執法之需,針對個人資料合法處理要件之一當事人「同意」,歐盟資料保護工作小組(Article 29 Data Protection Working Party, WP29)特於本(2018)年4月10日修正通過「當事人同意指引」(Guidelines on consent under Regulation 2016/679),其中就有效同意之要件、具體明確性、告知、獲得明確同意,獲有效同意之附加條件、同意與GDPR第6條所定其他法定要件之競合、兒少等其他GDPR特別關切領域,以及依據指令(95/46/EC)所取得之當事人同意等,均設有詳盡說明與事例。 GDPR第4條第11項規定個人資料當事人之同意須自由為之、明確、被告知,及透過聲明或明確贊成之行為,就與其個人資料蒐集、處理或利用有關之事項清楚地表明其意願(unambiguous indication)並表示同意。殊值注意的是,如果控制者選擇依據當事人同意為任何部分處理之合法要件,須充分慎重為之,並在當事人撤回其同意時,即停止該部分之處理。如表明將依據當事人同意進行資料之處理,但實質上卻附麗於其他法律依據,對當事人而言即顯係重大不公平。 換言之,控制者一旦選擇當事人同意為合法處理要件,即不能捨同意而就其他合法處理的基礎。例如,在當事人同意之有效性產生瑕疵時,亦不允許溯及援引「利用合法利益」(utilise the legitimate interest)為處理之正當化基礎。蓋控制者在蒐集個人資料之時,即應揭露其所依據之法定要件,故必須在蒐集前即決定其據以蒐集之合法要件為何。
美國擬將開放中國家禽類產品之進口美國近期可能開放進口中國大陸將已處理或煮熟的家禽類產品至美國。美國農業部(The U.S. Department of Agriculture)表示中國若將處理過之家禽類產品出口至美國販售,前提是必須遵循美國相關食品進口規範完成妥當的進口申報程序,並且在中國所提出之出口健康認證(export health certificate)中,證明該家禽類產品有確實在適當的溫度等處理過程中進行妥善處理。 美國農業部食品安全及監督服務部門(Food Safety and Inspection Service, 簡稱FSIS)之相關負責官員於2014年6月初在美國國會中國事務執行委員會(Congressional-Executive Commission on China, 簡稱CECC)所舉行的聽證會(hearing)中指出,中國已經將出口健康認證提交給FSIS及動物植物健康監督服務(Animal and Plant Health Inspection Service, 簡稱APHIS)進行審核。在聽證會中,最讓美國負責官員顧慮是否通過開放中國進口家禽類產品之因素在於中國鬆懈的法律規範及其政府的貪汙問題,對於所出具的出口健康認證報告之確實性亦有待考證。美國負責的相關人員建議,中國大陸在產品製造過程的透明度是對於出口健康認證最重要的部分,能夠說服美國相信中國大陸對於食品及藥物安全在管理上的謹慎。 另外一個需要注意的地方在於食品原產地之標示(country-of-origin labeling,簡稱COOL)。在美國食品市場中,若食品大部分的成分來源是在美國境內處理的,則該食品會有「美國產品」(product of U.S.A.)之標示,但對於何謂「美國境內處理的食物」仍沒有明確的標準,對於國外進口美國的產品,在美國經過重新包裝或加工,則依據COOL相關規範,應標示該產品為「美國產品」。因此,在此條件下,若美國允許中國進口經過中國當局出口健康認證的家禽類產品,若進口至美國後,又在美國境內經過重新加工或是包裝,則該食品之COOL將會顯示該食品來自美國,而非出產自中國大陸。這樣的結果恐將會讓美國食品標示出現不完全精確之結果,也會讓消費者開始顧慮其購買的食品來源的顧慮及食品安全的可信度,美國將必須對進口食品的安全管控上建立更嚴謹的規範措施。
歐盟執委會提出「具可信度之人工智慧倫理指引」歐盟執委會人工智慧高級專家小組(High-Level Expert Group on Artificial Intelligence)於2019年4月8日公布「具可信度之人工智慧倫理指引」(Ethics Guidelines For Trustworthy AI)。該指引首先指出,具可信度之人工智慧需具備三個關鍵特徵:(1)合法(Lawful):應遵守所有適用於人工智慧之法規;(2)合乎倫理(Ethical):確保人工智慧符合倫理原則與價值;(3)健全(Robust):自技術與社會層面觀之,避免人工智慧於無意間造成傷害。 該指引並進一步指出人工智慧應遵守以下四項倫理原則: (1) 尊重人類之自主權(Respect for Human Autonomy):歐盟之核心價值在於尊重人類之自由與自主,與人工智慧系統互動之個人,仍應享有充分且有效之自我決定空間。因此,人工智慧之運用,不應脅迫、欺騙或操縱人類,人工智慧應被設計為輔助與增強人類之社會文化技能與認知。 (2) 避免傷害(Prevention of Harm):人工智慧不應對人類造成不利之影響,亦不應加劇既有的衝突或傷害。人工智慧之系統運行環境應具備安全性,技術上則應健全,且確保不會被惡意濫用。此外,弱勢族群應於人工智慧運用中受到更多關注,並被視為服務對象。 (3) 公平(Fairness):人工智慧系統之開發、布建與利用,必須具備公平性。除了透過實質承諾與規範,進行平等與公正之利益與成本分配外,亦須透過救濟程序確保個人或特定族群不受到歧視與偏見之侵害,並可對人工智慧之自動化決策結果提出質疑,且獲得有效之補救。 (4) 可解釋性(Explicability):人工智慧應盡量避免黑箱(Black Box)決策,其系統處理程序須公開透明,並盡可能使相關決策結果具備可解釋性,分析特定訊息可能導致之決策結果,此外亦需具備可溯性且可接受審核。