2023年7月知名社群網路服務平台Twitter基於品牌多角化經營考量(意圖進軍線上金融服務領域),Twitter執行長伊隆·馬斯克(Elon Musk)突然宣布全面變更品牌商標,經典「藍色小鳥」的商標標識改為黑白配色的「X」圖案(以下將該案例稱為「Twitter案」)。
實務上,企業可能於多種情況進行品牌商標之變更,例如:諾基亞(Nokia)因為希望向消費者表明其從手機公司轉型為商業科技公司的決心,故更換新商標,可見Twitter案的更名在科技業並不少見。重點在於品牌商標更名後,可能在商標法方面產生的風險。商標為指示品牌商品與服務來源的重要識別標識,在Twitter案中使用單一英文字母「X」作為新商標,在商標法上,一般被認為識別性較低,較難取得商標權,且其保護範圍可能也因此限縮於設計過的「黑白X標識」;其次,X作為一個常用的英文單字,較易產生與他人商標近似之風險,例如:微軟(Microsoft)公司2003年註冊與其遊戲系統Xbox通訊有關的X商標,或Meta公司自2019年起擁有藍白色彩的X字母商標,且註冊商標指定範圍也是社群媒體、軟體等。
為降低前述品牌商標爭議問題,建議企業由品牌標識設計、品牌全球拓展、品牌行銷宣傳三大階段,分別留意以下事項:
一、品牌標識設計階段:設計全新品牌標識或優化既有品牌標識前,事先評估品牌標識在商標法上是否具有識別性、是否與他人商標近似造成消費者混淆誤認等法定無法取得商標等風險,再決定是否維持原設計理念投入設計。如:Twitter案新商標X,除了透過品牌標識設計增加法律上的識別性,同時降低可能的侵權風險。
二、品牌全球拓展階段:如果預見可能侵權風險,則應加強爭議處理機制的建置,以利爭議發生時,及時採取因應措施。
三、品牌行銷宣傳階段:運用行銷手段加強品牌商標的「後天識別性」,如:透過投放廣告加強在消費者心中「黑白X標識」與品牌的連結等。
有關Twitter Inc.(現已併入X Corp.)的X品牌商標保護與布局策略,將會是後續值得關注的議題。
本文同步刊登於TIPS網站(https://www.tips.org.tw)
日本特許廳(JPO)和中國人民共和國國家知識產權局(SIPO)於2011年10月18日合意簽署專利審查高速公路(Patent Prosecution Highway,PPH)試行方案。本方案欲藉由資源共享的方式,加快專利申請程序的官方審查期間。並預計於11月初開始施行,試行期間為期一年。透過這個方案,將使日本成為中國第一個PPH方案的合作對象。 隨著商業活動的全球性擴展,企業在各國獲取專利的需求性亦相對性地提升,造成單一申請案需個別向各國專利局申請的情況。因而造就全球性專利申請案件數量的攀升,以及專利審查期間的延長。為解決此問題,日本特許廳企圖以推行PPH模式,幫助申請人有效且及即時地獲取專利,以保障其國外專利權的行使。 傳統上大陸知識產權局審理日本專利申請案,通常需要經過二至三年的審查期間,透過這個試行方案,審查期間可望縮減至半年。 日本特許廳預計,這個方案將使日本企業以更迅速且有效的方式,保護其在中國的技術,進而協助日本企業順利地在中國經營商業活動。日本特許廳廳長表示,國際專利合作案不應該是種妥協,相反地,我們需要尋求一種可創造雙贏局面的新方式。 至於大陸方面,則預計與其他國家,如美國及南韓,簽署建立PPH的合作方案。
歐洲議會通過《人工智慧法案》朝向全球首部人工智慧監管標準邁進下一步歐洲議會通過《人工智慧法案》 朝向全球首部人工智慧監管標準邁進下一步 資訊工業策進會科技法律研究所 2023年06月26日 觀察今年的科技盛事屬ChatGPT討論度最高,將人們從區塊鏈、元宇宙中,帶入人工智慧(AI)領域的新發展。ChatGPT於2022年11月由OpenAI開發的生成式人工智慧,透過深度學習模型,理解和生成自然語言,其功能包含回答各類型問題(如科學、歷史)、生成邏輯結構之文章(如翻譯、新聞標題)、圖形、影像等內容。然而對於人工智慧的發展,究竟如何去處理人機間互動關係,對於風險之管理及相關應用之規範又該如何,或許可從歐盟的法制發展看出端倪。 壹、事件摘要 面對人工智慧的發展及應用,歐盟執委會(European Commission)早在2018年6月成立人工智慧高級專家組(AI HLEG),並於隔年(2019)4月提出「可信賴的人工智慧倫理準則」(Ethics Guidelines for Trustworthy AI),要求人工智慧需遵守人類自主、傷害預防、公平、透明公開等倫理原則。於2021年4月21日歐盟執委會提出「人工智慧法律調和規則草案」(Proposal for a Regulation Laying Down Harmonised Rules on Artificial Intelligence (Artificial Intelligence Act) and Amending Certain Union Legislative Acts)(以下稱人工智慧法案),於2023年內部市場委員會(Internal Market Committee)與公民自由委員會(Civil Liberties Committee)通過並交由歐洲議會審議(European Parliament),最終《人工智慧法案》於2023年6月14日通過。後續將再歐盟理事會(Council of the European Union)與辯論協商,尋求具共識的最終文本[1]。 貳、重點說明 由於「歐盟議會通過」不等於「法案通過」,實際上歐盟立法機制不同於我國,以下透過法案內容說明的契機,概述一般情況下歐盟之立法流程: 一、歐盟立法過程 通常情況下,法案由歐盟執委會(下簡稱執委會)提出,送交歐盟理事會及歐洲議會,作為歐盟的「立法者」歐洲理事會(下簡稱理事會)與歐洲議會(下簡稱議會)將針對法案獨立討論並取得各自機關內之共識。大致上立法程序有可分為三階段,在一讀階段若理事會與議會對於執委會版本無修改且通過,則法案通過,若任一機關修改,則會進行到二讀階段。針對法案二讀若仍無法取得共識,則可召開調解委員會(Conciliation)協商,取得共識後進入三讀。簡單來說,法案是否能通過,取決於理事會與議會是否取得共識,並於各自機關內表決通過[2]。 目前《人工智慧法案》仍處於一讀階段,由於法案具備爭議性且人工智慧發展所因應而生之爭議迫在眉睫,議會通過後將與執委會、理事會進入「三方會談」(Trilogue)的非正式會議,期望針對法案內容取得共識。 二、人工智慧法案 (一)規範客體 《人工智慧法案》依風險及危害性程度分級,其中「不可接受風險」因抵觸歐盟基本價值原則禁止(符合公益目標,如重大或特定犯罪調查、防止人身安全遭受危害等例外許可)。「高風險」則為法案規範之重點,除針對系統技術穩健、資料處理及保存訂有規範外,針對人為介入、安全性等也訂定標準。 而針對高風險之範疇,此次議會決議即擴大其適用範圍,將涉及兒童認知、情緒等教育及深度偽造技術(Deepfake)納入高風險系統,並強調應遵循歐盟個人資料保護規範。此外對於社會具有高影響力之系統或社群平臺(法案以4500萬用戶做為判斷基準),由執委會評估是否列為高風險系統。針對目前討論度高的生成式人工智慧(ChatGPT),議會針對法案增訂其系統於訓練及應用目的上,應揭露其為生成式人工智慧所產出之內容或結果,並摘要說明所涉及之智慧財產權[3]。 (二)禁止項目 關於《人工智慧法案》對於高風險系統之要求,從執委會及理事會的觀點來看,原則上重點在於對弱勢的保護及生物資料辨識之權限。歐盟禁止人工智慧系統影響身理及心理,包含對於特定族群如孩童、身心障礙者等弱勢族群之不平等待遇。同時原則禁止即時遠端的生物辨識利用,包含對於人性分析、動作預測等對於人類評價、分類之應用,例外情況如犯罪調查、協尋失蹤兒童、預防恐怖攻擊、關鍵基礎設施破壞等情況時方被允許。此次議會決議提高禁止即時遠端生物辨識的標準,包含納入敏感資訊的蒐集如性別、種族、政治傾向等,及其他臉部辨識、執法、邊境管制、情緒辨識等項目[4]。 參、事件評析 有關《人工智慧法案》雖歐洲議會已一讀通過,然而後續仍要面對與歐盟理事會的協商討論,並取得共識才能規範整個歐盟市場。因此上述規範仍有變數,但仍可推敲出歐盟對於人工智慧(含生成式)的應用規範態度。在面對日新月異的新興科技發展,其立法管制措施也將隨著橫向發展,納入更多種面向並預測其走向趨勢。因人工智慧有應用多元無法一概而論及管制阻礙創新等疑慮,觀察目前國際上仍以政策或指引等文件,宣示人工智慧應用倫理原則或其風險之管理,偏重產業推動與自律。 觀察歐盟《人工智慧法案》之監管目的,似期望透過其市場規模影響國際間對於人工智慧的監管標準。倘若法案後續順利完成協商並取得共識通過,對於如OpenAI等大型人工系統開發商或社群平臺等,若經執委會評估認定為高風險系統,勢必對於未來開發、應用帶來一定衝擊。因此,歐盟對於人工智慧監管的態度及措施實則牽一髮而動全身,仍有持續觀察之必要。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]The AI Act, Future of Life Institute, https://artificialintelligenceact.eu/developments/ (last visited Jun. 20, 2023) [2]The ordinary legislative procedure, Council of European Union, https://www.consilium.europa.eu/en/council-eu/decision-making/ordinary-legislative-procedure/ (last visited Jun. 19, 2023) [3]EU AI Act: first regulation on artificial intelligence, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/headlines/society/20230601STO93804/eu-ai-act-first-regulation-on-artificial-intelligence (last visited Jun. 21, 2023) [4]MEPs ready to negotiate first-ever rules for safe and transparent AI, European Parliament, Jun. 14, 2023, https://www.europarl.europa.eu/news/en/press-room/20230609IPR96212/meps-ready-to-negotiate-first-ever-rules-for-safe-and-transparent-ai(last visited Jun. 21, 2023)
科技化創新金融服務規範研析—以行動支付和第三方支付為例 美國發起「投資報酬計畫」(Return on Investment Initiative, ROI)全面檢視科研成果商業化法制川普總統在2018年4月發布「總統管理議程」(President’s Management Agenda)將國家科研成果商業化之發展視為「聯邦跨機關優先目標」(Cross-Agency Priority Goal, CAP Goal)。為維持美國全球科技創新領先地位,美國政府每年投資約1500億美元於各聯邦所屬大學與研究機構進行科技研究。美國國家標準與技術中心(NIST)與白宮科技政策辦公室(OSTP)聯合發起「投資報酬計畫」(Return on Investment Initiative, ROI),宗旨為釋放美國創新(Unleashing American Innovation),讓政府投資預算發揮科研補助之最大效益。 計畫目的包括:1.評估現行政府從事技術移轉指導原則,檢視應予以維持與待改革之處;2.吸引後期研發、商業化與先進製程的技轉投資,並降低法規阻礙;3.支持科研創新產官學合作模式與技轉機制;4.有效移除技轉阻礙以利加速技轉成效,並聚焦於國家重要產業發展的新興措施;5.評估聯邦政府資金運用指標成效;6.創造激勵學研機構提升技轉成效之誘因。 NIST調查指出,阻礙技轉發展之原因包括:1.技轉與智慧財產權協商所涉高額交易與時間成本;2.不同政府單位對法規之解釋、適用與實踐意見相歧;3.智慧財產權保護不足、技術授權使用限制與政府行使介入權(march-in rights)限制;4.公務員參與科技新創與衍生企業(spin-off)限制與利益衝突規範。此ROI計畫已於2018年7月30日完成各方意見徵詢,總計共104份。預計於2019年年初,做出完整分析報告與法制建議。