加拿大發布國家智財戰略強化國際競爭力

  2018年4月26日世界知識產權日(World Intellectual Property Day),加拿大政府發布新的國家智財戰略。透過提昇加拿大企業的智財意識與加強智財服務業者監管,促進加拿大的創新生態體系。這次加拿大的智財戰略以法制、意識與工具為三大重點,內容涵括推動修法消除法制障礙、推動國民智財意識提昇、提供智財交易平台等工具給企業運用。其中法制障礙特別強調加拿大政府將立法防止國外專利蟑螂惡意運用智慧財產權的行為,以保障其企業在國際的競爭力。

  其實臺灣在2012年由於產業面臨國際競爭,行政院就制定有「國家智財戰略綱領」,針對智財透過創造、運用流通、保護及人才等面向,擬訂戰略重點執行為期4年的智財行動計畫,目標引導產學研提升智財競爭力。今年智財行動計畫已執行完畢,但未來前瞻發展仍需擬定我國智財發展的戰略,沒有戰略性的布局與智財保護,政府投注再多經費,也無法幫助企業增加在國際市場上的競爭力。

  期待臺灣政府部門能夠參考國際上,包括加拿大的智財戰略做法,廣納產業、學界更多的好意見,規劃我國智財政策接下來的10步棋該怎麼下。

相關連結
※ 加拿大發布國家智財戰略強化國際競爭力, 資訊工業策進會科技法律研究所, https://stli.iii.org.tw/article-detail.aspx?d=8039&no=64&tp=1 (最後瀏覽日:2026/02/09)
引註此篇文章
你可能還會想看
「自動駕駛車(self-driving car)」可否合法上路?

  「自動駕駛車(self-driving car)」一般而言係指於汽車安裝感測器(sensors)以及軟體以偵測行人、腳踏車騎士以及其他動力交通工具,透過控制系統將感測到的資料轉換成導航道路,並以安全適當的方式行駛。其目前可分為兩類:「全自動駕駛車(full autonomous)」以及「半自動駕駛車(fully autonomous)」,全自動駕駛車係指可於指定地點出發後不需駕駛人(driver)在車上而到達目的地者之謂。全自動駕駛車又可為「用戶操作(user-operated)」與「無人駕駛車(driverless car)」。   目前包含賓士(Mercedes)、BMW、特斯拉(Tesla)等公司均預期於不久將來會發布一些具備自動駕駛特徵的車種,科技公司如Google亦對於自動駕駛車的科技研發不留餘力。   而從2012年開始,美國有17州以及哥倫比亞特區便開始在討論允許自動駕駛車上路的相關法規,而只有加利福尼亞州(California)、佛羅里達州(Florida)、內達華州(Nevada)及華盛頓哥倫比亞特區(Washington, D.C.)有相關法律的施行,其他州則尚未表態。而大部分的州傾向認為應由人類來操控(operating)汽車,但對於具體上到底有多少比例之汽車任務需由人類操控而多少比例可交由機器則尚有模糊空間。而是否肯認「人工智慧操控」符合法規之「人類操控」亦不明朗。不過在法律存有這樣灰色地帶時刻,Google搶先於加利福尼亞州進行測試其自動控制系統,期望之後於自動駕駛車逐漸上市普及後能搶占商機。

我國電子遊戲場業管理條例修法研析-參考美國佛州Family Amusement Games Act

我國電子遊戲場業管理條例修法研析 -參考美國佛州Family Amusement Games Act 資策會科技法律研究所 法律研究員 王凱嵐 105年04月06日   去年七月,美國佛州政府簽屬一份Family Amusement Games Act 法案,條文部份針對電子遊戲機做完整的定義解釋,及遊戲機所擺放的場域做限制。特別的是此法案排除博弈遊戲,僅針對非博弈遊戲做獨立規範。   新修法案之目的在於解決相關遊戲業者面對舊法時的疑惑。修法後將博弈性遊戲與技術性遊戲做出區分,另關於遊戲擺放的場域以及遊戲獎賞都有明確的立法條文。法案做出明確規範後,大幅度的降低遊戲機業者對於政府法規的不確定感,在遊戲產業上能夠有更多的空間去發展及調整。   在我國,長久以來電子遊戲場所給大眾多為不良的印象,政府雖然早已制定「電子遊戲場業管理條例」作為規範,但自民國八十九年二月三日公布施行至今已超過十五年,立法時之管制目的及作法與現今社會風氣、產業趨勢已不盡相符,本文擬藉由參考美國佛州對於遊戲機的定義及限制規定,就未來可能之修法方向提出建議。首先論我國現行條例之問題,再論美國佛州立法可採之處,最後將針對現行條例未來修正提供建議。 壹、美國佛州Family Amusement Games Act:   美國佛州Family Amusement Games Act (以下簡稱「親子遊戲機法」)對於遊戲機台做以下的文字解釋:「可供一般民眾單純娛樂之遊戲,得使用鈔票、硬幣、卡片、彩券、代幣、籌碼或相似的替代物進入遊戲,並能以遊戲技術控制遊戲結果。排除任何其它具有博弈性質的遊戲。」從佛州法條上的解釋可以看出,此立法上將遊戲區分技術性與博弈性兩種類型,遊戲者必須是以自身遊戲技巧控制遊戲並能影響其結果,且非只靠運氣或投機心態遊戲。與佛州舊法相比,新法之遊戲機不僅以使用硬幣為限,允許使用其它相類似的替代物遊戲。提高了彩券獎品的金額限制,並新增遊戲機得放置的場域(保齡球館、旅館、餐廳)。   為了使定義更加完善,美國佛州新法僅針對博弈性遊戲做解釋:「1.遊戲以機械式或影像上具有吃角子老虎機的捲軸或符號,或以視頻模擬任何其他賭場遊戲,包括撲克、賓果、拉霸機、樂透、輪盤賭、擲骰子,但不僅限於上述之遊戲。2.遊戲中玩家無法以自身技巧控制結果或其遊戲結果為不可目測、不可知悉、不可預見。3.視頻撲克遊戲或任何遊戲或機器可被本州法律解釋為賭博設備。4.任何遊戲或設備被規定在15 U.S.C. s. 1171,除非排除在15 U.S.C. s. 1178。」從以上的條文可以看出,佛州在博奕性遊戲上,完整的做出定義,使遊戲業者能清楚的知道遊戲機的類別區分,對於機台發展和市場推廣上有相當大的助益。   美國佛州將非博奕性遊戲機區分為A、B、C三類。首先A類為得重複遊戲獎勵遊戲機,其遊戲結果不得以現金、彩券、籌碼、點數、折價卷或任何有兌換價值之電子點數當作獎勵。此類遊戲機,因其遊戲性質僅以單純地重複性遊戲,在擺放區域上並無限制。B類為得以彩券做為遊戲獎勵之遊戲機。C類為得以直接獲取獎勵物品之遊戲機,但其商品價值不得超過一定之金額限定。B、C兩類遊戲機,其擺放場域相似度高,僅有部分場域另做規定。區分此三類之目的,在於規範不同遊戲結果之遊戲機台。又關於彩券及獎勵物品在佛州新法中,也有詳盡的規範,具體的勾勒出三種遊戲機三種不同的遊戲態樣。 貳、我國電子遊戲場業管理條例   我國電子遊戲場業管理條例第4條所稱之電子遊戲機「指利用電、電子、電腦、機械或其它類似方式操縱,以產生或顯示聲光影像、圖案、動作、之遊樂機具,或利用上述方式操縱鋼珠或鋼片發射之遊樂機具。但未具影像、圖案,僅供兒童騎乘者,不包括在內。」關於電子遊戲機的認定,判斷上以是否利用電、電子、電腦、機械或其它類似方式操縱,若是符合以上要件,應屬於本條例所稱之電子遊戲機。   我國「電子遊戲場業管理條例」採營業分級、機具分類之制度,依據遊戲之內容之暴露、暴力、血腥、恐怖程度及操作結果區分將電子遊戲機分為三類:益智類、鋼珠類、娛樂類。所謂益智類遊戲其內容無任何暴露、暴力、血腥或恐怖,亦無任何渲染妨害風化之元素在內,且其操作結果所得之分數僅得作為兌換獎品之憑證,不得作為轉押住使用,判斷標準相當嚴格。   關於遊戲營業場再區分成兩類,我國電子遊戲場業管理條例第5條:「普通級:指僅設置益智類電子遊戲機,供兒童、少年及一般大眾遊藝者。限制級:指設置鋼珠類、娛樂類或附設益智類遊戲電子遊戲機,僅供十八歲以上之人遊藝者」而又同條例第9條之規定:「電子遊戲場業之營業場所,應距離國民中、小學、高中、職校、醫院五十公尺以上。」,由此可知我國雖將電子遊戲機依內容區分為三類,但其遊戲場所只區分兩類,且在設置地區之限制是相同的。 參、小結   數位休閒產業現階段發展所遇到的問題,除了先前提到的負面形象外,還包含法制規範已不符合潮流,此現象造成產業被法律嚴格管理、地方政府限制發照、人才投入意願低落。因此,修改現行管理條例以及匡正產業形象已有其必要性與重要性。   前述美國佛州的立法例,在遊戲機的定義上即與我國有明顯不同。佛州以進入遊戲的方式定義新法所規範的遊戲機類別。我國可考慮參考此分類方式,將遊戲類別的區分單純技術性與射倖性遊戲(博弈目前在我國不合法),並在益智類遊戲分類項下針對暴露、暴力、血腥或恐怖等要素,參考遊戲軟體分級之作法再作進一步的區分,同時搭配擺放遊戲機台場域的限制規定,不再用原則限制的角度去立法,而是回歸到遊戲場業管理制度上做規範,使遊戲機台開發商或製造業者能按其公司營運方向進行內容種類的規劃,以追求產業發展與安全監管上的平衡。

從管理模式談智慧財產管理的重要性

美國情報體系發布「情報體系運用人工智慧倫理架構」

  美國國家情報體系(United States Intelligence Community)係於1981年依據行政命令第12333號(Executive Order 12333)所建立,其任務為蒐集、分析與提供外國情報與反情報資訊美國國家領導人,服務對象包含美國總統、執法單位以及軍事單位。其於2020年6月提出「情報體系人工智慧倫理架構」(Artificial Intelligence Ethics Framework for the Intelligence Community),為人工智慧系統與訓練資料、測試資料之採購、設計、研發、使用、保護、消費與管理提出指引,並指出人工智慧之利用須遵從以下事項: 一、於經過潛在風險評估後,以適當且符合目的之方法利用; 二、人工智慧之使用應尊重個人權利與自由,且資料取得應合法且符合相關政策與法規之要求; 三、應於利用程序內結合人類判斷與建立問責機制,以因應AI產品之風險並確保其決策之適當性。 四、於不破壞其功能與實用性之前提下,盡可能確認、統計以及降低潛在之歧視問題。 五、AI進行測試時應同時考量其未來利用上可預見之風險。 六、持續維持AI模型之迭代(Iteration)、版本與改動之審查。 七、AI之建立目的、限制與設計之輸出項目,應文件化。 八、盡可能使用可解釋與可理解之方式,讓使用者、審查者與公眾理解為何AI會產出相關決策。 九、持續不定期檢測AI,以確保其符合當初建置之目的。 十、確認AI於產品循環中各階段之負責人,包含其維護相關紀錄之責任。

TOP