「自動駕駛車(self-driving car)」一般而言係指於汽車安裝感測器(sensors)以及軟體以偵測行人、腳踏車騎士以及其他動力交通工具,透過控制系統將感測到的資料轉換成導航道路,並以安全適當的方式行駛。其目前可分為兩類:「全自動駕駛車(full autonomous)」以及「半自動駕駛車(fully autonomous)」,全自動駕駛車係指可於指定地點出發後不需駕駛人(driver)在車上而到達目的地者之謂。全自動駕駛車又可為「用戶操作(user-operated)」與「無人駕駛車(driverless car)」。
目前包含賓士(Mercedes)、BMW、特斯拉(Tesla)等公司均預期於不久將來會發布一些具備自動駕駛特徵的車種,科技公司如Google亦對於自動駕駛車的科技研發不留餘力。
而從2012年開始,美國有17州以及哥倫比亞特區便開始在討論允許自動駕駛車上路的相關法規,而只有加利福尼亞州(California)、佛羅里達州(Florida)、內達華州(Nevada)及華盛頓哥倫比亞特區(Washington, D.C.)有相關法律的施行,其他州則尚未表態。而大部分的州傾向認為應由人類來操控(operating)汽車,但對於具體上到底有多少比例之汽車任務需由人類操控而多少比例可交由機器則尚有模糊空間。而是否肯認「人工智慧操控」符合法規之「人類操控」亦不明朗。不過在法律存有這樣灰色地帶時刻,Google搶先於加利福尼亞州進行測試其自動控制系統,期望之後於自動駕駛車逐漸上市普及後能搶占商機。
本文為「經濟部產業技術司科技專案成果」
醫療科技公司轉型提供資料類型產品解決方案於美國之智財權布局建議 資訊工業策進會科技法律研究所 2023年05月31日 過去,醫療科技公司僅專注於開發針對醫療問題的硬體解決方案,近年這些企業則致力於轉型開發收集及利用大量病人、資料提供者資料之產品,而轉變成資料平台公司,而更可以全面了解病人及客戶生活習慣及健康狀況。 其中許多解決方案均利用人工智慧(Artificial Intelligence, AI)及機器學習(Machine Learning, ML),相較傳統上研發成果多為硬體設備,現今則轉變成出現大量軟體解決方案,保護研發成果之方式將發生改變,如何選擇合適的智慧財產權保護研發成果成為企業重要課題,此亦影響企業如何做智慧財產布局及擬定公司相關經營策略,因此建議企業——尤其是開發醫療資訊平台之醫療科技公司,特別是致力於開發醫療器材軟體(Software as a Medical Device, SaMD)、醫療設備嵌入式軟體(Software In a Medical Device, SiMD)及應用於醫療技術中的人工智慧等新興領域時可以參考以下提供之思考方向選擇對於企業發展最適切之智慧財產權保護態樣。[1] 研發成果如欲獲得專利保護,該發明必須係獨一無二且可以傳授的——即人們不能將自然發生或不可再現的事物申請專利,因為發明需透過專利以清楚的方式概述,並明確定義專利內容,並向公眾揭露,以便於申請人取得專利、並於專利期限屆滿後(專利保護期限因各國法規、專利類型而將有所不同,建議企業應了解欲布局之國家相關法規規定,如台灣之發明專利[20年]、新型專利[10年]、設計專利[15年]),使大眾得藉以實施該技術內容。[2] 在美國,專利係由美國專利商標局賦予所有權人於一定期間內壟斷其發明之權利,即美國聯邦法律更使專利所有權人在專利權效期內得以禁止他人於該期間內於美國製造、使用、銷售或進口至美國這項已獲得專利保護之發明,此給予專利權人一個得以建立一個阻止他人進入市場的巨大障礙,可防止競爭及保護專利權人可以自由實施該權利。[3] 因專利有上述特性,文章作者建議,如裝置(device)、該裝置使用之軟體,對於從事新藥開發之藥廠,於保護新穎成分(New Chemical Entities)、相關之治療方法及人工智慧相關發明較適合以專利保護。[4] 營業秘密係指資訊擁有者已盡合理努力保密,且不為公眾所周知或非可被公眾輕易探知而具有獨立經濟價值的,任何形式及類型之資訊。合理努力可能包括(但不限於),要求員工簽署保密協議、定期提醒員工其負有保密義務(如:針對職務不同/所從事不同工作之員工,保密義務內容、程度、時間是否有所不同?)、踐行必要而知悉(need to know) 原則(如:執行不同工作之人員是否可互相存取各自的資料? 抑或僅能存取自己工作所需之資料?)、佈署IT安全措施或辦公室安全措施之狀況(如:是否有門禁?資料如有異常存取狀況時是否有示警機制?)並須即時調查及採取行動打擊涉及盜用營業秘密之行為(如:是否有相關通報不當使用營業秘密之管道及監控機制?)[5] 在美國,傳統上營業秘密之保護是結合各州法律而成,除了紐約州及北卡羅萊納州以外,所有州都頒布了其特有版本的《統一營業秘密法》(Uniform Trade Secrets Act, UTSA)——係一項1979年頒布的統一法案。於2016年,國會又頒布了《保護營業秘密法Defend Trade Secrets Act, DTSA》,該法案保障當事人於聯邦法院提起營業秘密訴訟之權利,且只要促進犯罪行為之行為發生於美國,當事人即可於國外進行訴訟,此外,《統一營業秘密法》中規定營業秘密包含公式、模式、彙編、程式、設備、方法、技術或過程。而依《保護營業秘密法》(Defend Trade Secrets Act, DTSA),營業秘密可為任何形式,無論係以物理、電子、圖形、攝影或書面形式儲存、編輯或紀錄之財務、商業、科學、科技、經濟或工程資訊均為營業秘密之範疇,因此,營業秘密之適用範圍較廣,於美國甚至抽象之想法均可受營業秘密保護。[6] 與僅提供有限保護期限之專利有別,如欲獲得營業秘密之保護,僅需資訊持續保密並存在並持續存有價值,該資訊即會持續受到營業秘密保護並擁有無限的有效期限,亦即,只要該資訊仍為秘密,即受到營業秘密之保護。如:可口可樂已將其配方作為營業秘密保護了130多年之久。惟與專利不同的是營業秘密一但被公眾周知或得以透過適當方式獨立開發(如競爭對手自己獨立開發而產出之資訊),就將失去營業秘密之保護。[7] 因為營業秘密之特性,諸如蛋白質結構、客戶清單、機器學習演算法、原始碼、化學製程參數(如:會產生化學反應之溫度或壓力)、甚至是醫療科技公司近年致力經營的人工智慧領域所產出的人工智慧、新的模型訓練方法、優化模型參數、消極專有技術(如:不該做什麼)。[8] 惟選擇專利抑或營業秘密之方式保護其研發成果將視企業的業務為何決定,如缺乏透明度之產業可能較適合以營業秘密方式保護,而非專利。例如:網路安全公司可能傾向於營業秘密保護,因為申請專利揭露其機密安全演算法可使競爭對手開發競爭產品或使駭客進行量身訂製之攻擊。相較之下,製造容易檢測、針對消費者之電子產品之企業更依賴專利保護,製造具有行業標準化品質之產品之企業亦是如此。[9] 總體而言,是否容易被逆向工程將會是決定以專利或營業秘密保護之關鍵性調查方式。因申請專利必須揭露細節事項,將對廣泛保護資料為基礎之軟體(且有使用人工智慧或機器學習)較具挑戰性,故專利較適合保護裝置(device)及會相互作用之實體產品和軟體。而營業秘密則要求資料所有人無限期地維持秘密性,亦須注意自己的想法獲得他人關注時遭仿效之風險,故較適合造價高或難以仿效的軟體、製造方法或產品。[10] 而對於生技醫療公司而言,其應考量使用混和策略以保護人工智慧相關之創新,如:專有之原始和訓練資料、模型之優化參數、將專有技術用於訓練模型及其他難以進行逆向工程之人工智慧相關的此類機密資訊,可能較適合用營業秘密保護,同時該技術的其他方面,如人工智慧系統或使用其開發之藥物則可透過專利保護。[11]惟不論企業決定要將該資訊做為營業秘密保護或申請專利保護,企業對於研究人員發表相關資訊的行為均應審慎評估,避免因揭露而喪失專利之新穎性或營業秘密之秘密性的情形。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Kristin Havaranek, Martin Gomez, Matt Wetzel, Steven TJoe & Stephanie Philbin, Top 5 IP Considerations for Medtech Companies Transitioning To Data-enabled Product Solutions (2023), https://medcitynews.com/2023/01/top-5-ip-considerations-for-medtech-companies-transitioning-to-data-enabled-product-solutions/ (last visited June 1,2023). [2]John Quinn, Protecting Inventions Through Patents and Trade Secret (2023), https://www.newsweek.com/protecting-inventions-through-patents-trade-secrets-1788352 (last visited May 30, 2023). [3]Id. [4]Charles Collins-Chase, Kassanbra M. Officer & Xinrui Zhang, United States: Strategic Intellectual Property Considerations For Protecting AI Innovations In Life Sciences (2023), https://www.mondaq.com/unitedstates/trade-secrets/1276042/strategic-intellectual-property-considerations-for-protecting-ai-innovations-in-life-sciences (last visited May 30, 2023) [5]Id. [6]John Quinn, supra note 2. [7]Id. [8]Collins-Chase et al., supra note 4. [9]John Quinn, supra note 2. [10]Havranek et al., supra note 1. [11]Collins-Chase et al., supra note 4.
日本經產省與國交省提出「自動駕駛推動發展與制度規劃」檢討報告日本經濟產業省於2016年11月14日召開第二次「自動駕駛商業檢討會」,邀請產官學研各界對於自動駕駛未來國際標準的動向以及諸如協調領域、社會接受度、制度和基礎建設等方面所涉議題,交換意見。 該檢討會首先注意到美國、歐洲以及韓國對於自動駕駛各式規則或指引制定的討論。在協調領域方面,檢討會指出:關於自動駕駛所需的地圖資訊,應由各汽車製造商協調,透過合作機制或規範來確保資訊與資金提供的公平性。 社會接受度方面,檢討會則提出建議考量是否需要針對不擅駕駛的高齡者或初學者,提供有效系統的必要性。在制度與基礎建設方面,檢討會則指出:以現狀而言,自動駕駛服務的商業永續性仍不明朗,必須持續進行實證試驗。 此外,為減少交通事故與因應少子化,與汽車的ICT革命等議題,由國土交通省於同年11月25日設立「自動駕駛戰略本部」(自動運転戦略本部),並於12月9日召開第一次會議。 該次會議討論的範圍包括:為實現無人駕駛的環境整備、自動駕駛技術的研發、普及與促進,以及為實現自動駕駛的實證與社會試驗。 會議結論則由國土交通大臣指示針對「車輛的技術基準」、「年長者事故對策」、「事故發生時的賠償規則」、「大卡車列隊行走」、「非平地道路間以車站為據點的自動駕駛服務」等議題速成立工作小組。
美國聯邦貿易委員會(FTC)提議加強兒童隱私規則,以進一步限制企業將兒童的資訊用來營利美國聯邦貿易委員會(Federal Trade Commission, FTC)於2023年12月對《兒童線上隱私保護規則》(Children's Online Privacy Protection Rule, COPPA Rule)提出修法草案,並於2024年1月11日公告60日供公眾意見徵詢。 FTC依據兒童線上隱私保護法(Children's Online Privacy Protection Act, COPPA)第6502節授權,訂定COPPA Rule,並於2000年通過生效,要求網站或提供線上服務的業者在蒐集、使用或揭露13歲以下兒童的個人資訊之前必須通知其父母,並獲得其同意。本次提議除了限制兒童個人資訊的蒐集,亦限制業者保留此些資訊的期間,並要求他們妥善保存資料,相關規定如下: (1)置入固定式廣告時需經認證:COPPA所涵蓋的網站和線上服務業者現在需要獲得兒童父母的同意並取得家長的授權才能向第三方(包括廣告商)揭露資訊,除非揭露資訊是線上服務所不可或缺之部分。且因此獲悉的兒童永久身分識別碼(persistent identifier)也僅止於網站內部利用而已,業者不能將其洩漏予廣告商以連結至特定個人來做使用。 (2)禁止以蒐集個資作為兒童參與條件:在蒐集兒童參與遊戲、提供獎勵或其他活動的個資時,必須在合理必要的範圍內,且不能用個資的蒐集作為兒童參與「活動」的條件,且對業者發送推播通知亦有限制,不得以鼓勵上網的方式,來蒐集兒童的個資。 (3)將科技運用於教育之隱私保護因應:FTC提議將目前教育運用科技之相關指南整理成規則,擬訂的規則將允許學校和學區授權教育軟硬體的供應商將科技運用於蒐集、使用和揭露學生的個資,但僅限使用於學校授權之目的,不得用於任何商業用途。 (4)加強對安全港計畫的說明義務:COPPA原先有一項約款,內容是必須建立安全港計畫(Safe Harbor Program),允許行業團體或其他機構提交自我監督指南以供委員會核准,以執行委員會最終定案的防護措施,此次擬議的規則將提高安全港計畫的透明度和說明義務,包括要求每個計畫公開揭露其成員名單並向委員會報告附加資訊。 (5)其它如強化資訊安全的要求以及資料留存的限制:業者對於蒐集而來的資訊不能用於次要目的,且不能無限期的留存。 FTC此次對COPPA Rule進行修改,對兒童個人資訊的使用和揭露施加新的限制,除了將兒童隱私保護的責任從孩童父母轉移到供應商身上,更重要的是在確保數位服務對兒童來說是安全的,且亦可提升兒童使用數位服務的隱私保障。
歐盟執委會公布《可信賴的AI政策及投資建議》歐盟執委會於2018年6月成立人工智慧高級專家組(The High-Level Expert Group on Artificial Intelligence, AI HLEG),主要負責兩項工作:(1)人工智慧倫理準則;(2)人工智慧政策與投資建議。並於2019年4月8日提出《可信賴的人工智慧倫理準則》(Ethics Guidelines for Trustworthy AI),2019年6月公布之《可信賴的AI政策及投資建議》(Policy and Investment Recommendations for Trustworthy Artificial Intelligence)則是人工智慧高級專家組所交付之第二項具體成果。 該報告主要分為兩大部分,首先第一部分是要透過可信賴的人工智慧建立對歐洲之正面影響,內容提及人工智慧應保護人類和社會,並促進歐洲公司各部門利用人工智慧及技術移轉,而公部門則扮演人工智慧增長及創新之催化劑,以確保歐洲具有世界一流之研究能力;第二部分則是影響歐洲各成員國建立可信賴之人工智慧,內容則提及將發展人工智慧相關基礎設施、教育措施、政策規範及資金投資,同時合法、有道德的使用各項數據。 在本報告中關於法規面的建議則是進一步制定政策和監管框架,確保人工智慧在尊重人權、民主及創新下發展,因此將建立人工智慧政策制定者、開發者及用戶間的對話機制,若是遇到將對社會或是人類產生重大影響之敏感性人工智慧系統,除透過歐洲人工智慧聯盟(The European AI Alliance)進行對話之外,也需要在尊重各成員國之語言及文化多樣性下展開協調機制。另外,報告中也特別提到如果政府以「保護社會」為由建立一個普遍的人工智慧監督系統是非常危險的作法,政府應該承諾不對個人進行大規模監視,並在遵守法律及基本權利下進行人工智慧系統之發展。