近期人工智慧(Artificial Intelligence, AI)的智慧財產權保護受到各界廣泛注意,而OpenAI於2023年3月所提出有關最新GPT- 4語言模型的技術報告更將此議題推向前所未有之高峰。過去OpenAI願意公布細節,係由於其標榜的是開源精神,但近期的報告卻決定不公布細節(如訓練計算集、訓練方法等),因為其認為開源將使GPT- 4語言模型面臨數據洩露的安全隱患,且尚有保持一定競爭優勢之必要。
若AI產業選擇不採取開源,通常會透過以下三種方式來保護AI創新,包括申請專利、以營業秘密保護,或同時結合兩者。相對於專利,以營業秘密保護AI創新可以使企業保有其技術優勢,因不用公開技術內容,較符合AI產業對於保護AI創新的期待。然而,企業以營業秘密保護AI創新有其限制,包含:
1.競爭者可能輕易透過還原工程了解該產品的營業秘密內容,並搶先申請專利,反過來起訴企業侵害其專利,而面臨訴訟風險;
2.面對競爭者提起的專利侵權訴訟,企業將因為沒有專利而無法提起反訴,或透過交互授權(cross-licensing)來避免訴訟;
3.縱使企業得主張「先使用權(prior user right)」,但其僅適用在競爭者於專利申請前已存在的技術,且未來若改進受先使用權保護之技術,將不再受到先使用權之保護,而有侵犯競爭者專利之虞,因此不利於企業提升其競爭力。
綜上所述,儘管AI產業面有從開源轉向保密的傾向,但若要完全仰賴營業秘密來保護AI創新仍有其侷限,專利依舊是當前各企業對AI領域的保護策略中的關鍵。
本文同步刊登於TIPS網站(https://www.tips.org.tw)
歐盟於2016年5月公布將成立個人化醫療國際聯合會(International Consortium for Personalised Medicine, IC PerMed),並草擬發展倡議。其成立背景為目前用來治療大部分病人之一般藥品效果未如預期,且因藥物嚴重副作用導致需急性醫療入院情形,約超過60%之比例。此外,歐盟的醫療照護成本將隨著人口老化以及慢性疾病增加而加重。個人化醫療具有特定預防目的以及治療方法,因此,病人利用最佳的治療方是,可避免試驗與治療錯誤之問題。個人化醫療是一個快速成長的市場,歐洲醫療照護產業具有發展潛力,並同時帶來經濟成長與就業機會。 歐盟認為,儘管個人化醫療尚未有明確定義,但依據Horizon2020諮詢小組(Horizon 2020 Advisory Group)定義為利用個人表現型或基因型特徵之醫療模型,針對正確的個人、治療時間,以明確的醫療政策為目標進行診治,或者是找出疾病特徵給予即時的預防。其中,重要部份在於,個人化關注的不僅是藥品或醫療產品,尚需對於生物機制以及環境與疾病、健康之間的交互作用等進行瞭解是否影響整體的健康照護。雖然歐洲部分國家已經開始引進個人化醫療,但實際上歐洲仍處在早期執行階段,尚待更多的研究開發。 為此,歐盟執委會與部分健康研究機構以及決策組織團體等共同合作,決議成立個人化醫療國際聯合會,目標為2016年底之前開始此項計畫。歐盟執委會與IC PerMed組織成員合作,將進行以下事項: 1.將歐洲建立成為全球個人化醫療研究領導者地位 2.透過合作研究支持個人化醫療醫學 3.將個人化醫療的利益展現於民眾以及醫療照護體制 4.為精準醫療提供給民眾做好準備 IC PerMed將聚焦在研發補助與合作,以實現上述所設定之任務。目前,IC PerMed正研擬發展倡議藍圖。依據草擬之藍圖,IC PerMed將提供各組織成員之間彈性合作架構。藍圖主要建構於個人化醫療歐洲願景(Shaping Europe’s Vision for Personalised Medicine)之相關文件,該文件屬於政策研發議程(Strategic Research and Innovation Agenda, SRIA)之一部分,同時為先前歐盟所補助之PerMed(2013~2015)計畫範圍之一。依據PerMed SRIA,發展可區分為五項領域,包括: 發展過程與結果、整合巨量資料與ICT解決模式、將基礎轉為臨床研究、將研發鏈結市場、以及形成延續性的醫療照護體系。未來,IC PerMed發展倡議藍圖將依上述五個領域建構,並在2016年底預計公布第一部分的施行願景。
美國國家標準與技術研究院公布人工智慧風險管理框架(AI RMF 1.0)美國國家標準與技術研究院(National Institute of Standards and Technology, NIST)於2023年1月26日公布「人工智慧風險管理框架1.0」(Artificial Intelligence Risk Management Framework, AI RMF 1.0),該自願性框架提供相關資源,以協助組織與個人管理人工智慧風險,並促進可信賴的人工智慧(Trustworthy AI)之設計、開發與使用。NIST曾於2021年7月29日提出「人工智慧風險管理框架」草案進行公眾徵詢,獲得業界之建議包含框架應有明確之衡量方法以及數值指標、人工智慧系統設計時應先思考整體系統之假設於真實世界中運作時,是否會產生公平性或誤差的問題等。本框架將隨著各界使用後的意見回饋持續更新,期待各產業發展出適合自己的使用方式。 本框架首先說明人工智慧技術的風險與其他科技的差異,定義人工智慧與可信賴的人工智慧,並指出設計該自願性框架的目的。再來,其分析人工智慧風險管理的困難,並用人工智慧的生命週期定義出風險管理相關人員(AI actors)。本框架提供七種評估人工智慧系統之信賴度的特徵,包含有效且可靠(valid and reliable):有客觀證據證明人工智慧系統的有效性與系統穩定度;安全性(safe):包含生命、健康、財產、環境安全,且應依照安全風險種類決定管理上的優先次序;資安與韌性(secure and resilient);可歸責與資訊透明度(accountable and transparent);可解釋性與可詮譯性(explainable and interpretable);隱私保護(privacy-enhanced);公平性—有害偏見管理(fair – with harmful bias managed)。 本框架亦提出人工智慧風險管理框架核心(AI RMF Core)概念,包含四項主要功能:治理、映射(mapping)、量測與管理。其中,治理功能為一切的基礎,負責孕育風險管理文化。各項功能皆有具體項目與子項目,並對應特定行動和結果產出。NIST同時公布「人工智慧風險管理框架教戰手冊」(AI RMF Playbook),提供實際做法之建議,並鼓勵業界分享其具體成果供他人參考。
美國總統歐巴馬宣布增加強化美國網路安全預算經費為強化並有效因應網路安全相關議題,美國總統歐巴馬日前於4月10日提出在2014財政年度(於2013年10月開始起算)增加強化網路安全經費之建議,期待透過藉由加強並建置相關網路安全機制的方式,有效解決目前美國所面臨來自中國、伊朗、俄國、以及其他國家之的網路安全威脅;同時,其亦希望藉此厚植並改善美國政府,以及私人企業的電腦網絡防禦能力。 本次由美國總統歐巴馬所提出的國家網路安全策略主要可區分為二部分:1. 加強美國網路事件(cyber incidents)的彈性度,以及2. 減少網路威脅事件。首先針對加強美國網路事件彈性度的部份,主要會透過a. 強化美國數位基礎建設,進而能有效抵禦滲透和干擾,b. 改善美國對於複雜和敏捷的網路威脅防禦能力,以及c. 培養針對不同類型的網路事件,皆能快速應變並恢復的能力,這三個方法來加以落實。而就減少網路威脅事件的部份,則計畫以透過a. 與美國友邦結盟的方式,共同研議國際網路規範,b. 強化網路犯罪的法律執行能力,和c. 遏止潛在對手就現有之美國網路漏洞採取不當行動,三個策略模式的實施來加以實踐。然而除了上述的兩個策略及其子項的具體落實外,美國政府亦強調串連各政府部門,以及私人企業團體間之合作重要性,以及建立一個能夠使得網路維護人員及其他相關人員,得以快速取得相關網路安全資訊的便捷管道亦為重要。 隨著全球資通訊網路交流互動以及依賴程度日益增長,如何有效兼顧個人網路安全隱私及使用自由,並同時確保網路資訊流通的安全性,乃為目前強加網路安全的重要關注焦點。本次美國總統歐巴馬所提出的網路安全推動策略走向,及其如何加以落實,實值得持續關注。
技術進步、資訊流通、隱私保障