為鼓勵出租人利用屋頂型太陽能裝置直接提供承租戶用電,並鼓勵推動民眾參與能源轉型,德國制訂「租戶電力促進法」(Gesetz zur Förderung von Mieterstrom)及修正相關再生能源法,並於2017年7月已正式生效。
所謂「租戶電力」(Mieterstrom)係指來自建築物本身裝設或周遭區域裝置的太陽能設備生產之電力,未循傳統利用方式將電力饋入一般電網中,而直接就地(Vor Ort)提供給終端用戶(主要為建築物承租戶)電力使用。但查現行太陽能電力之利用狀況,發電設備所有人(同時也是出租人)多數仍選擇將發電饋入電網,以取得依再生能源法規定之相當報酬。新法制訂後,未來出租人將電力提供給承租人後仍可獲得同樣報酬,而原先承租人負擔許多自電網中購電必須支付的電網費、網路端分配費、電力稅及其他雜費,以及未來可能會產生的附加費等,也可節省下來。
因此,透過本法將可提升發展與使用太陽能的經濟誘因。一方面促使出租人將太陽能發電直供承租人使用,依據其太陽能裝置及太陽能板鋪設大小,出租人約可獲得3.8歐分/kWh~2.75歐分/kWh之間的報酬,此外,並限制補助太陽能裝置為每年500MW以下,以確保發電容量符合用電發展。而依據德國經濟與能源部委託相關研究報告顯示,有高達380萬的家庭戶具備開發此種直接向租戶供電的潛力。另一方面,該法亦包含租戶電力契約的存續期間,及承租人將保有電力供應商的選擇權,並設定其租戶電力費用上限(修正能源經濟法§42a),以確保租戶電力費用具市場競爭力。
本文為「經濟部產業技術司科技專案成果」
韓國人工智慧風險管理趨勢研析 資訊工業策進會科技法律研究所 2020年6月25日 人工智慧技術正不斷地突飛猛進,後更因深度學習應用帶來令人難以置信的進步,迅速成為眾多產業轉型的重要推手。然而,當眾人專注於追求人工智慧的逐利時,也隱然意識到人工智慧與現實世界的互動,似已超越人類認知能力,或依當下技術知識經驗仍難加以掌握。以自駕車為例,其利用感測器感知外界進行影像辨識、理解預測進而做出決策的整體流程上,不論是在路人、車輛等圖像辨識、現場就路人及車輛行動之預測,乃至後端根據前階段路人、車輛行動預測與現在位置判斷最佳路徑的過程,處處是不可測的風險。申言之,從辨識正確率、現場狀況理解度至演算法決策來說,吾人所得掌控者有限。主因在於人工智慧的複雜與靈活性特色,實難通過統一概念加以界定。次者是人工智慧的自動化決策本身,事實上難以被確實地預見。甚至,就人工智慧可控性上,亦充斥各類不確定要素,特別是訓練資料偏差、又或設計者主觀意識之偏頗都可能造成預想之外的結果。 截至目前為止,人工智慧應用已然帶來已引發諸多風險議題,包含於開發、設計及製造端所論及之風險議題涵蓋歧視與偏見,如資料偏差、樣本資料結構性不平等[1]致使機器學習或有偏誤,進而影響判斷,產出具有歧視或偏見之結果[2];個人資料及隱私保護上,則係因人工智慧訓練對資料具有大量需求,涉及個人資料部分,將面臨蒐集(踐行告知程序)、處理和利用(於當事人同意之範圍內處理、利用)是否善盡保護義務與合乎法規要求;演算法黑箱帶來不透明的決策,難以預測與檢驗決策流程、判準是否有誤[3]。就此,考慮到人工智慧之重要性與風險,或有必要立基於風險預防理念進行相關風險控管,甚或以風險責任分擔角度,討論相關權責分配,以應對未來可能衍生的危害或重大風險。 人工智慧風險控管之法律基礎無法悖於倫理道德基礎。觀諸國際間討論,韓國早在2007年即已倡議機器人道德理念,並在2008年起接連有相關立法舉措。本文將以之為中心,探究其人工智慧在風險控管之相關立法政策措施,盼可從韓國做法中反思我國推行人工智慧風險管理之方向。 壹、事件摘要 一、韓國智慧機器人相關法制措施 (一)《智慧機器人發展和促進法》風險管控介紹 2008年9月韓國《智慧機器人發展和促進法》(지능형 로봇 개발 및 보급 촉진법)正式生效。該法旨在鋪設智慧機器人產業發展之法律基礎,包含在法律中嘗試引入智慧機器人定義(指通過識別外部環境並判斷狀況後自動運行之機器設備,包含機器設備運行所必要軟體),以此作為後續促進產業發展、規劃機器人責任歸屬或保險等討論之開展基礎;另外也以促進產業發展觀點,訂定產品安全開發與布建之支持法源依據;挹注國家科研能量確保技術穩定;建置智慧機器人產業分類系統,依此做為機器人產業統計基礎,為國家在機器人管理及政策提供相關數據。 其中,特別的是除了促進性規範外,亦首度於法律提出機器人倫理道德的概念,賦予主管機關訂定與「機器人倫理道德憲章」(로봇윤리헌장)相關內容之義務。 所謂「機器人倫理道德憲章」,係指針對智慧機器人功能及其智慧化發展,規範製造和使用人員之指導方針,以防杜危險發生並避免機器人不利於人類生活品質。換言之,機器人倫理道德憲章可認為是針對智慧機器人開發、製造、使用上的準則,盼可用以防止因智慧機器人功能而衍生之社會損害。就此,韓國工商部曾擬定《機器人倫理道德憲章草案》,可參考如下: 第一條(目標)機器人倫理道德憲章目標係為人類和機器人共存共榮,並確認以人類爲中心的倫理規範。 第二條(人與機器人的共同原則)人類和機器人應當維護相互之間生命的尊嚴、資訊和工程倫理。 第三條(人類倫理)人類在製造和使用機器人時,必須使用良好的方法判斷和決定。 第四條(機器人倫理)機器人是順從人類命令的朋友或是協助者、夥伴,不得傷害人類。 第五條(製造商倫理規範)機器人製造商有義務製造維護人類尊嚴之機器人,同時,必須承擔回收機器人、資訊保護義務。 第六條(使用者倫理)機器人使用者應當尊重機器人爲人類的朋友,禁止非法改造和濫用機器人。 第七條(實施的承諾)政府和地方政府應實施有效措施,以體現《憲章》的精神[4]。 觀察《智慧機器人發展和促進法》內涵,富有藉重法律效果與效能引領智慧機器人產業發展之精神,企圖形成政府政策借助立法促成經濟層面活動向上發展。然而,隨智慧機器人技術逐漸深入社會,韓國旋即意識到人工智慧在權益維護、風險管控上仍有進一步補強之必要,進而提出《機器人基本法草案》,並開展韓國在機器人倫理道德、歸責原則之相關討論,以順應社會整體的變革。 (二)《機器人基本法草案》 如前所述,意識到人工智慧發展已然滲入日常生活,有必要在機器人普及化的社會接受過程中,應對各類問題預先防範。韓國國會議員遂於2017年7月19日提出《機器人基本法草案》(로봇기본법)以反映機器人發展趨勢與問題。 《機器人基本法草案》主要目的是為機器人融入社會過程中的政策方向、原則進行引導,以有助於機器人產業健全發展。是以,該法在風險控管部分,通過二類做法予以調控,一是建立倫理道德準則之原則、二是嘗試提出歸責原則以釐清相關應用所生之爭議。 一者,藉道德倫理界線之提出使產業更為允當運用人工智慧。借用產品生命週期之概念,分就設計、製造以及使用者責任三階段規範。在設計階段,著重於產品內部構造、軟體介面設計的安全性,另就不侵犯人權及社會利益上,強調預先從設計確保產品永續性、倫理性及使用上的安全性;在製造階段,則從遵法性、說明義務及產品維護修繕責任等,揭示製造商在產品製造、銷售應行之事項;最後,則從使用者角度,以應用階段各項自律、他律規範,明示遵法義務與道德倫理原則,並特別指明宜避免過度成癮。 次者,在責任分配與歸屬上,於現行法令無以適用情況下,允許受損害者得向機器人之銷售者或提供者求償。然而,為免製造商或銷售者過度承擔賠償責任之風險,亦設置免責條款,規定當產品因缺陷致使損害發生,而該缺陷係以當時技術水準所無法發現之情況,或是該缺陷是製造商遵守當時機器人法令所規定標準所肇致,則將免除製造商之損害賠償責任。 綜合前述,《機器人基本法草案》在倫理道德及責任分配歸屬的風險管控上,提出諸多可資參考之方式,然而在基本法審議過程中,韓國政府認為雖有必要管制風險,卻不宜過早以立法手段介入遏止創新,而未能通過韓國國民議會。 (三)韓國人工智慧國家戰略 雖然《機器人基本法草案》未能立法通過,然而韓國相關立法脈絡已展現除關注於促進智慧機器人產業發展外,在倫理道德、責任上的風險調控亦不可偏廢態勢,且從智慧機器人進一步聚焦於人工智慧。 2019年12月第53屆總理會議(국무회의)[5],韓國擬定涵蓋科學資通訊技術部在內所有部會共同推動之「人工智慧國家戰略」(AI 국가전략)作為橫跨經濟和社會的創新專案[6],以攻守兼備方式發展人工智慧。分從技術、產業、社會三方面著手,為韓國發展人工智慧半導體產業取得先機,進而拔得在相關領域的頭籌;次者,完備先進資通訊技術基礎設施,借力人工智慧積極轉型為新世代數位政府;其三,從教育扎根,建設人工智慧教育體系以培植相關領域專業人才;第四,秉持「以人為本」精神發展人工智慧,建立人工智慧倫理原則、擴張就業安全網保障勞工,使人工智慧所產生之效益可散發至社會各個角落。預計通過該戰略,將可在2030年壯大韓國之數位競爭力,使人工智慧經濟產值增長至4550000億韓圜(約3800億美元),提升國民生活品質[7]。 整體而言,該戰略建立基於技術的立法、以人為本的道德以及改善整體社會法律體系三者為核心。基於技術的立法,如《信用資訊法》修訂,允許假名化資料利用,以鬆綁人工智慧資料應用需求,並平衡隱私保障;以人為本的道德,像是參考國際間道德倫理之標準,推行「人工智慧道德標準行動計畫」(AI 윤리기준 및 실천방안 마련),加速研擬建立在安全、責任或是擔保上的規範[8];改善整體社會法律體系,包含修正《國民就業援助法》擴大就業安全網,透過保險、教育、就業支援等方式協助受人工智慧衝擊影響之勞工、《就業政策基本法》中研擬為人工智慧業務建立相應人才教育。三者之推動,除帶動人工智慧產業蓬勃發展外,也兼顧社會層面道德、權益保障。 貳、重點說明 一、以剛性立法手段推進產業發展 觀察韓國,其人工智慧發展態度係以鼓勵為重。主因在於對企業來說,採用新興科技應用或可能囿於法遵成本、研發投資耗費過鉅、相關領域人才稀缺等多重因素而有所疑慮。有鑑於前開問題,韓國以正面態度,在風險控管措施上,嘗試藉由法規手段解消人工智慧發展所面臨之問題,即在賦予政府確實制訂與推進人工智慧發展政策責任,使業者可預期政府態度;次者,設置法律作為行政機關提供產品安全開發與布建支援依據,確保科研能量技術的穩定;再者,藉由智慧機器人分類系統建立產業管理與統計基礎,俾利後續依統計數據進行決策。 至於權益保障、風險如何評價及規範,雖有論者倡議另制定《機器人基本法草案》彌補《智慧機器人發展和促進法》於法律內部體系權利價值詮釋上的缺陷,然經立法成本與當時技術成熟度之衡量,並未過早規範技術之發展。 二、借軟性規範措施型塑兼容並顧之環境 另方面,觀察韓國在面對人工智慧機器人時的應對方式,發現在促進發展上,韓國無不餘力地大力採用剛性立法手段,以鋪設技術、投資所需之基礎建設及支援。而就尚難定論之技術風險管控,像是倫理道德、歸責原則調控等,考量技術尚未臻成熟,實難以剛性立法方式加之管理,而有以政策方式先試先行之傾向,形塑具有包容彈性之環境,鼓勵人工智慧機器人產業之投入,並依此作為後續法規調適之基礎。 鑒於人工智慧機器人所涉領域之多元,誠然有必要以宏觀角度全盤檢視與調適相應之規範及措施。故而,韓國2019年底提出富含權益保障與經濟逐利精神之「人工智慧國家戰略」,並鏈結不同部會共司建立彈性包容人工智慧機器人產業之環境。 參、事件評析 綜觀上述,韓國面對人工智慧及機器人,對內,以剛性立法手段,先行鋪設智慧機器人產業發展之基礎,包含界定智慧機器人範圍、賦予行政機關訂定倫理規範等一定義務、設置行政支持法源依據、以分類系統規劃作為數據統計基礎進行決策等,以拉抬、激勵企業投入研發,促成經濟層面活動之擴散與發酵;對外,以軟性規範宣示韓國政府發展智慧機器人產業態度、吸引國際間產學研能量挹注,並同步促成內部社會法體制之調整,不難看出韓國政府的企圖與決心,且整體上已約略有鼓勵、促進逐漸轉變為管理層面意味。 在我國方面,亦已意識到人工智慧風險管理之重要性,立法委員並在2019年5月倡議《人工智慧發展基本法草案》希望以制定基本法之方式,從研究、開發乃至整合等,厚植我國人工智慧實力,並嘗試建立人工智慧開發準則與倫理原則。韓國前述有關人工智慧之規範作法,或許可茲我國借鏡,就促進人工智慧技術經濟層面效益之面向,可由政府擬定具實質效力之法規範推動之;就現尚難明確定位之倫理準則及風險控管,採用軟性規範方式,先行以具包容性之政策、指引等作法試行,以待日後技術臻至成熟穩定,再行考量轉化為立法管理之必要。 [1] Crawford, K. et al. The AI Now Report: The Social and Economic Implications of Artificial Intelligence Technologies in the Near-Term, AI Now, 2016, https://ainowinstitute.org/AI_Now_2016_Report.pdf (last visited May. 22, 2019) [2] Cassie Kozyrkov, What is AI bias?, https://towardsdatascience.com/what-is-ai-bias-6606a3bcb814 (last visited May. 22, 2019) [3] BBC, The real risks of Artificial Intelligence, http://www.bbc.com/future/story/20161110-the-real-risks-of-artificial-intelligence(last visited May. 22, 2019). [4] 김성원 선임,지능정보사회의 도래와 법·윤리적 과제- 인공지능기술의 발달을 중심으로 -, National Industry Promotion Agency(2017/11/15), p10. [5] 總理會議係韓國特有的系統,主要由總統、總理以及15位至30位不等之國務院成員共同組成,成員包含各部會之首長。主要職能是做為國家決策的機構,並協調政策或行政事務。詳細資料可參見:http://theme.archives.go.kr/next/cabinet/viewIntro.do。 [6] 〈정부, AI 국가전략 발표…”AI 반도체 세계 1위 목표”〉,Bloter,2019/12/17,http://www.bloter.net/archives/364678 (最後瀏覽日:2020/2/1)。 [7] 〈인공지능(AI) 국가전략 발표〉,과학기술정보통신부,2019/12/17,https://www.msit.go.kr/web/msipContents/contentsView.do?cateId=_policycom2&artId=2405727 (最後瀏覽日:2020/2/1)。 [8]〈인공지능 국가전략〉,관계부처 합동,2019/12,頁36-38。
《加州隱私權法(California Privacy Rights Act, CPRA)》現在備受關注;CCPA修正案2020年11月3日,加州於其大選中以公投方式批准通過第24號提案(Proposition 24),該提案頒布《加州隱私權法》(California Privacy Rights Act,以下簡稱CPRA)。CPRA對加州消費者隱私保護法(California Consumer Privacy Act 2018,以下簡稱CCPA)所規定之隱私權進行重要修正,改變了加州的隱私權格局。 CPRA賦予加州消費者新的隱私權利,並對企業施加新的義務,例如消費者將有權限制其敏感性個人資料(例如財務資料、生物特徵資料、健康狀況、精確的地理位置、電子郵件或簡訊內容及種族等)之使用與揭露;消費者有權利要求企業更正不正確的個人資料;CPRA同時修改現有的CCPA的「拒絕販售權」,擴張為「拒絕販售或共享權」,消費者有權拒絕企業針對其於網際網路上之商業活動、應用或服務而獲得的個人資料所進行之特定廣告推播。CPRA亦要求企業對各類別之個人資料,按其蒐集、處理、利用之目的範圍及個人資料揭露目的,設定預期的保留期限標準。 CPRA另創設「加州隱私保護局」(California Privacy Protection Agency)為隱私權執行機構,該機構具有CPRA之調查、執行和法規制定權,改變了CCPA 係由加州檢察長(California Attorney General)負責調查與執行起訴的規定,並規定加州隱私保護局應於2021年7月1日之前成立。 CPRA將在2022年7月1日之前通過最終法規,且自2023年1月1日起生效,並適用於2022年1月1日起所蒐集之消費者資料,隨著CPRA的通過,預期可能促使其他州效仿加州制定更嚴格之隱私法,企業應持續關注有關CPRA之資訊,並迅速評估因應措施。
歐盟「人工智慧法」達成政治協議,逐步建立AI準則歐盟「人工智慧法」達成政治協議, 逐步建立AI準則 資訊工業策進會科技法律研究所 2023年12月25日 隨著AI(人工智慧)快速發展,在各領域之應用日益廣泛,已逐漸成為國際政策、規範、立法討論之重點。其中歐盟人工智慧法案(Artificial Intelligence Act, AI Act,以下簡稱AIA法案)係全球首部全面規範人工智慧之法律架構,並於2023年12月9日由歐洲議會及歐盟部長歷史會達成重要政治協議[1],尚待正式批准。 壹、發佈背景 歐洲議會及歐盟部長理事會針對AIA法案已於本年12月9日達成暫時政治協議,尚待正式批准。在法案普遍實施前之過渡期,歐盟執委會將公布人工智慧協定(AI Pact),其將號召來自歐洲及世界各地AI開發者自願承諾履行人工智慧法之關鍵義務。 歐盟人工智慧法係歐盟執委會於2021年4月提出,係全球首項關於人工智慧的全面法律架構,該項新法係歐盟打造可信賴AI之方式,將基於AI未來可證定義(future proof definition),以等同作法直接適用於所有會員國[2]。 貳、內容摘要 AIA法案旨在確保進入並於歐盟使用之AI人工智慧系統是安全及可信賴的,並尊重人類基本權利及歐盟價值觀,在創新及權利義務中取得平衡。對於人工智慧可能對社會造成之危害,遵循以風險為基礎模式(risk-based approach),即風險越高,規則越嚴格,現階段將風險分為:最小風險(Minimal risk)、高風險(High-risk)、無法接受的風險(Unacceptable risk)、特定透明度風險(Specific transparency risk)[3]。與委員會最初建議版本相比,此次臨時協定主要新增內容歸納如下: 臨時協議確立廣泛域外適用之範圍,包含但不限於在歐盟內提供或部署人工智慧系統的企業[4]。但澄清該法案不適用於專門用於軍事或國防目的之系統。同樣,該協定規定不適用於研究和創新目的之人工智慧系統,也不適用於非專業原因之個人AI使用。 臨時協議針對通用AI(General purpose AI)[5]模型,訂定相關規定以確保價值鏈之透明度;針對可能造成系統性風險之強大模型,訂定風險管理與重要事件監管、執行模型評估與對抗性測試等相關義務。這些義務將由執委會與業界、科學社群、民間及其他利害關係人共同制定行為準則(Codes of practices)。 考量到人工智慧系統可用於不同目的之情況,臨時協議針對通用AI系統整合至高風險系統,並就基礎模型部分商定具體規則,其於投放市場之前須遵守特定之透明度義務,另強調對於情緒識別系統有義務在自然人接觸到使用這種系統時通知他們。 臨時協議針對違反禁止之AI應用,罰款金額自3,500萬歐元 或全球年營業額7%(以較高者為準)。針對違反其他義務罰款1,500萬歐元或全球年營業額3%,提供不正確資訊罰 款750萬歐元或全球年營業額1.5%。針對中小及新創企業違反人工智慧法之行政罰款將設定適當之上限。 參、評估分析 在人工智慧系統之快速發展衝擊各國社會、經濟、國力等關鍵因素,如何平衡技術創新帶來之便利及保護人類基本權利係各國立法重點。此次歐盟委員會、理事會和議會共同對其2021年4月提出之AIA法案進行審議並通過臨時協議,係歐洲各國對於現下人工智慧運作之監管進行全面的討論及認可結果,對其他國家未來立法及規範有一定之指引效果。 此次臨時協議主要針對人工智慧定義及適用範圍進行確定定義,確認人工智慧系統產業鏈之提供者及部署者有其相應之權利義務,間接擴大歐盟在人工智慧領域之管轄範圍,並對於人工智慧系統的定義縮小,確保傳統計算過程及單純軟體使用不會被無意中禁止。對於通用人工智慧基礎模型之部分僅初步達成應訂定相關監管,並對基礎模型之提供者應施加更重之執行義務。然由於涉及層面過廣,仍需業界、科學社群、民間及其他利害關係人討論準則之制定。 面對AI人工智慧之快速發展,各國在人工智慧之風險分級、資安監管、法律規範、資訊安全等議題持續被廣泛討論,財團法人資訊工業策進會科技法律研究所長期致力於促進國家科技法制環境,將持續觀測各國法令動態,提出我國人工智慧規範之訂定方向及建議。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI,https://www.europarl.europa.eu/news/en/press-room/20231206IPR15699/artificial-intelligence-act-deal-on-comprehensive-rules-for-trustworthy-ai (last visited December 25, 2023). [2]European Commission, Commission welcomes political agreement on Artificial Intelligence Act,https://ec.europa.eu/commission/presscorner/detail/en/ip_23_6473 (last visited December 25, 2023). [3]Artificial intelligence act,P5-7,https://superintelligenz.eu/wp-content/uploads/2023/07/EPRS_BRI2021698792_EN.pdf(last visited December 25, 2023). [4]GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2 (last visited December 25, 2023). [5]General purpose AI-consisting of models that “are trained on broad data at scale, are designed for generality of output, and can be adapted to a wide range of distinctive tasks”, GIBSON DUNN, The EU Agrees on a Path Forward for the AI Act,https://www.gibsondunn.com/eu-agrees-on-a-path-forward-for-the-ai-act/#_ftn2(last visited December 25, 2023).
醫療科技公司轉型提供資料類型產品解決方案於美國之智財權布局建議醫療科技公司轉型提供資料類型產品解決方案於美國之智財權布局建議 資訊工業策進會科技法律研究所 2023年05月31日 過去,醫療科技公司僅專注於開發針對醫療問題的硬體解決方案,近年這些企業則致力於轉型開發收集及利用大量病人、資料提供者資料之產品,而轉變成資料平台公司,而更可以全面了解病人及客戶生活習慣及健康狀況。 其中許多解決方案均利用人工智慧(Artificial Intelligence, AI)及機器學習(Machine Learning, ML),相較傳統上研發成果多為硬體設備,現今則轉變成出現大量軟體解決方案,保護研發成果之方式將發生改變,如何選擇合適的智慧財產權保護研發成果成為企業重要課題,此亦影響企業如何做智慧財產布局及擬定公司相關經營策略,因此建議企業——尤其是開發醫療資訊平台之醫療科技公司,特別是致力於開發醫療器材軟體(Software as a Medical Device, SaMD)、醫療設備嵌入式軟體(Software In a Medical Device, SiMD)及應用於醫療技術中的人工智慧等新興領域時可以參考以下提供之思考方向選擇對於企業發展最適切之智慧財產權保護態樣。[1] 研發成果如欲獲得專利保護,該發明必須係獨一無二且可以傳授的——即人們不能將自然發生或不可再現的事物申請專利,因為發明需透過專利以清楚的方式概述,並明確定義專利內容,並向公眾揭露,以便於申請人取得專利、並於專利期限屆滿後(專利保護期限因各國法規、專利類型而將有所不同,建議企業應了解欲布局之國家相關法規規定,如台灣之發明專利[20年]、新型專利[10年]、設計專利[15年]),使大眾得藉以實施該技術內容。[2] 在美國,專利係由美國專利商標局賦予所有權人於一定期間內壟斷其發明之權利,即美國聯邦法律更使專利所有權人在專利權效期內得以禁止他人於該期間內於美國製造、使用、銷售或進口至美國這項已獲得專利保護之發明,此給予專利權人一個得以建立一個阻止他人進入市場的巨大障礙,可防止競爭及保護專利權人可以自由實施該權利。[3] 因專利有上述特性,文章作者建議,如裝置(device)、該裝置使用之軟體,對於從事新藥開發之藥廠,於保護新穎成分(New Chemical Entities)、相關之治療方法及人工智慧相關發明較適合以專利保護。[4] 營業秘密係指資訊擁有者已盡合理努力保密,且不為公眾所周知或非可被公眾輕易探知而具有獨立經濟價值的,任何形式及類型之資訊。合理努力可能包括(但不限於),要求員工簽署保密協議、定期提醒員工其負有保密義務(如:針對職務不同/所從事不同工作之員工,保密義務內容、程度、時間是否有所不同?)、踐行必要而知悉(need to know) 原則(如:執行不同工作之人員是否可互相存取各自的資料? 抑或僅能存取自己工作所需之資料?)、佈署IT安全措施或辦公室安全措施之狀況(如:是否有門禁?資料如有異常存取狀況時是否有示警機制?)並須即時調查及採取行動打擊涉及盜用營業秘密之行為(如:是否有相關通報不當使用營業秘密之管道及監控機制?)[5] 在美國,傳統上營業秘密之保護是結合各州法律而成,除了紐約州及北卡羅萊納州以外,所有州都頒布了其特有版本的《統一營業秘密法》(Uniform Trade Secrets Act, UTSA)——係一項1979年頒布的統一法案。於2016年,國會又頒布了《保護營業秘密法Defend Trade Secrets Act, DTSA》,該法案保障當事人於聯邦法院提起營業秘密訴訟之權利,且只要促進犯罪行為之行為發生於美國,當事人即可於國外進行訴訟,此外,《統一營業秘密法》中規定營業秘密包含公式、模式、彙編、程式、設備、方法、技術或過程。而依《保護營業秘密法》(Defend Trade Secrets Act, DTSA),營業秘密可為任何形式,無論係以物理、電子、圖形、攝影或書面形式儲存、編輯或紀錄之財務、商業、科學、科技、經濟或工程資訊均為營業秘密之範疇,因此,營業秘密之適用範圍較廣,於美國甚至抽象之想法均可受營業秘密保護。[6] 與僅提供有限保護期限之專利有別,如欲獲得營業秘密之保護,僅需資訊持續保密並存在並持續存有價值,該資訊即會持續受到營業秘密保護並擁有無限的有效期限,亦即,只要該資訊仍為秘密,即受到營業秘密之保護。如:可口可樂已將其配方作為營業秘密保護了130多年之久。惟與專利不同的是營業秘密一但被公眾周知或得以透過適當方式獨立開發(如競爭對手自己獨立開發而產出之資訊),就將失去營業秘密之保護。[7] 因為營業秘密之特性,諸如蛋白質結構、客戶清單、機器學習演算法、原始碼、化學製程參數(如:會產生化學反應之溫度或壓力)、甚至是醫療科技公司近年致力經營的人工智慧領域所產出的人工智慧、新的模型訓練方法、優化模型參數、消極專有技術(如:不該做什麼)。[8] 惟選擇專利抑或營業秘密之方式保護其研發成果將視企業的業務為何決定,如缺乏透明度之產業可能較適合以營業秘密方式保護,而非專利。例如:網路安全公司可能傾向於營業秘密保護,因為申請專利揭露其機密安全演算法可使競爭對手開發競爭產品或使駭客進行量身訂製之攻擊。相較之下,製造容易檢測、針對消費者之電子產品之企業更依賴專利保護,製造具有行業標準化品質之產品之企業亦是如此。[9] 總體而言,是否容易被逆向工程將會是決定以專利或營業秘密保護之關鍵性調查方式。因申請專利必須揭露細節事項,將對廣泛保護資料為基礎之軟體(且有使用人工智慧或機器學習)較具挑戰性,故專利較適合保護裝置(device)及會相互作用之實體產品和軟體。而營業秘密則要求資料所有人無限期地維持秘密性,亦須注意自己的想法獲得他人關注時遭仿效之風險,故較適合造價高或難以仿效的軟體、製造方法或產品。[10] 而對於生技醫療公司而言,其應考量使用混和策略以保護人工智慧相關之創新,如:專有之原始和訓練資料、模型之優化參數、將專有技術用於訓練模型及其他難以進行逆向工程之人工智慧相關的此類機密資訊,可能較適合用營業秘密保護,同時該技術的其他方面,如人工智慧系統或使用其開發之藥物則可透過專利保護。[11]惟不論企業決定要將該資訊做為營業秘密保護或申請專利保護,企業對於研究人員發表相關資訊的行為均應審慎評估,避免因揭露而喪失專利之新穎性或營業秘密之秘密性的情形。 本文同步刊登於TIPS網站(https://www.tips.org.tw) [1]Kristin Havaranek, Martin Gomez, Matt Wetzel, Steven TJoe & Stephanie Philbin, Top 5 IP Considerations for Medtech Companies Transitioning To Data-enabled Product Solutions (2023), https://medcitynews.com/2023/01/top-5-ip-considerations-for-medtech-companies-transitioning-to-data-enabled-product-solutions/ (last visited June 1,2023). [2]John Quinn, Protecting Inventions Through Patents and Trade Secret (2023), https://www.newsweek.com/protecting-inventions-through-patents-trade-secrets-1788352 (last visited May 30, 2023). [3]Id. [4]Charles Collins-Chase, Kassanbra M. Officer & Xinrui Zhang, United States: Strategic Intellectual Property Considerations For Protecting AI Innovations In Life Sciences (2023), https://www.mondaq.com/unitedstates/trade-secrets/1276042/strategic-intellectual-property-considerations-for-protecting-ai-innovations-in-life-sciences (last visited May 30, 2023) [5]Id. [6]John Quinn, supra note 2. [7]Id. [8]Collins-Chase et al., supra note 4. [9]John Quinn, supra note 2. [10]Havranek et al., supra note 1. [11]Collins-Chase et al., supra note 4.