日本國會2024年5月10日通過、同月17日公布《重要經濟安全資訊保護及活用法》(重要経済安保情報の保護及び活用に関する法律,以下簡稱經安資訊保護法),建立安全許可(セキュリティ・クリアランス)制度,規範政府指定重要經濟安全資訊(以下簡稱經安資訊)、向業者提供經安資訊之方式,以及可近用經安資訊之人員資格等事項,以保護與重要經濟基礎設施有關,外流可能影響國家及國民安全之重要資訊,並同時促進此類資訊之利用。
根據經安資訊保護法規定,行政機關首長得指定機關業務相關之重要資訊,如與關鍵基礎設施、關鍵原物料相關,外洩可能影響經濟安全之資訊為經安資訊。並得於下列情形,向其他行政機關、立法機關及司法機關、特定民間業者提供經安資訊:
1.其他行政機關:有利用經安資訊之必要時。
2.立法機關及司法機關:提供資訊對經濟安全不會有顯著影響時。
3.特定民間業者:為促進有助於經濟安全保障之行為,必要時得依契約向符合保安基準之業者提供經安資訊。
此外,經安資訊保護法進一步規定近用、處理經安資訊者,須通過適格性評價(適性評価),評價重點包括當事人犯罪紀錄、藥物濫用紀錄、有無精神疾病、有無酗酒、信用狀況等。由於上述內容涉及當事人隱私,故行政機關進行適格性評價前,須取得當事人同意。
本文為「經濟部產業技術司科技專案成果」
Gilead Sciences之子公司Kite Pharma(以下簡稱Kite)所推出之Yescarta®(Axicabtagene Ciloleucel)為治療復發型或難治型瀰漫性大B細胞淋巴瘤(Diffuse Large B-Cell Lymphoma, DLBCL)之CAR-T細胞治療產品,其為美國FDA第二個核准上市之CAR-T產品。 上述產品於2017年獲美國FDA核准上市後,Juno therapeutics公司隨即於美國加州中區聯邦地院起訴Kite,主張Yescarta侵害Juno therapeutics之美國7,446,190號專利「編碼嵌合T細胞受體之核酸(Nucleic acids encoding chimeric T cell receptors)」(以下簡稱190專利),2019年陪審團認定Kite成立專利侵權,裁定損害賠償額為7.78億美元;於2020年法院進一步認定Kite有蓄意侵權行為,再判定需增加50%之損害賠償金,使損害賠償總額超過11億美元。 本案上訴後,美國聯邦巡迴上訴法院(US Court of Appeals for the Federal Circuit, 以下簡稱 CAFC)於2021年8月26日推翻原審判決,認定190專利不符書面說明(Written Description)要件而無效。CAFC認為190專利請求項所請求之單鏈可變區片段抗體(single-chain variable fragment, scFv)結合部涵蓋過廣,包括可結合「任何」標的之「任何」scFv,惟其說明書未能提供其中之代表性物種(species)、或界定其共通結構特徵,於說明書中僅揭露可結合兩種不同標的之兩種scFv作為實施例,但未能說明此二物種如何、或是否能夠代表其所請求的整個上位之屬(genus)。CAFC指出,若要滿足書面說明要件之要求,說明書應揭露與代表性數量之標的結合之特定scFv物種,Juno雖提出專家證詞主張此二scFv實施例已具代表性,惟CAFC仍認為該證詞過於籠統而未能解釋何種scFv將與何種標的結合。CAFC指出,書面說明要件之目的在於確保專利排他權範圍不會超出發明人記載於說明書中之貢獻範圍,190專利發明人證稱其申請發明時只使用過說明書所載之兩個scFv實施例,且說明書未提供確認何種scFv將結合至何種標的之方法與指導,但190專利卻請求可與任何標的結合之scFv,因此,190專利之揭露內容未能證明發明人擁有結合至各種選定標的之所有可能scFvs,無法滿足書面說明要件之要求。 醫藥專利以上位請求項(genus claim)尋求保護時,可能因說明書記載內容不容易滿足書面說明與可據以實施(Enablement)要件而受到挑戰。除本案外,美國近期亦有數件醫藥專利因不符書面說明要件與可據以實施要件而被宣告無效,如Amgen Inc. v. Sanofi(Fed. Cir. 2021)、Idenix Pharmaceuticals LLC v. Gilead Sciences Inc.(Fed. Cir. 2019)、Enzo v. Roche(Fed. Cir. 2019),未來醫藥專利以上位請求項尋求保護是否會變得更加困難,值得繼續觀察。
英國取法美國國防先進研發署研發補助機制,提出先進研究發明署法案英國商業、能源暨產業策略部(Department for Business, Energy and Industrial Strategy, BEIS)於2021年3月2日向英國國會提交「先進研究發明署法案」(The Advanced Research and Invention Agency Bill),作為英國政府設立獨立研究機構「先進研究發明署」(Advanced Research and Invention Agency, ARIA)的法源依據,用以補助高風險、高報酬之前瞻科學與技術研究,將仍處於想像階段的新技術、發現、產品或服務化為現實。 本法案授予ARIA高度的自主性,使ARIA得以招攬世界頂尖的科學家與研究人員,規劃最具前瞻性與發展潛力的研究領域提供研發補助;同時也給予相較於其他研究機構更多容許失敗的彈性,並明確指出失敗是前瞻科學研究必然經歷的過程。ARIA對於研發資金的運用將因而獲得充分的自主性與彈性,包含對於研究計畫提供快速啟動基金與其他獎項做為激勵措施,或是依據研發進展即時決策是否延續或中止。 ARIA取法自美國國防先進研發署(Defense Advanced Research Projects Agency, DARPA),美國DARPA在網際網路、GPS等技術研發上的成就,直到近期支持針對COVID-19的mRNA疫苗及抗體療法從而取得重大進展,在在顯示了DARPA模式的可行性與重大影響力,而其成功的關鍵在於高度的自主性、靈活性以及最少的行政程序障礙,因此法案將允許ARIA不受政府採購相關限制、並免於政府資訊公開的義務,以減少行政程序對於研發進程的影響。但ARIA每年度仍須向國家審計署提供年度會計報告以作為政府對其最低限度的監督手段,除此之外,商業部長將有權中止與敵對勢力對象的研發合作或結束特定的研究計畫。
世界經濟論壇發布《贏得數位信任:可信賴的技術決策》世界經濟論壇(World Economic Forum, WEF)於2022年11月15日發布《贏得數位信任:可信賴的技術決策》(Earning Digital Trust: Decision-Making for Trustworthy Technologies),期望透過建立數位信任框架(digital trust framework)以解決技術開發及使用之間對數位信任之挑戰。 由於人工智慧及物聯網之發展,無論個人資料使用安全性還是演算法預測,都可能削弱人民對科技發展之信賴。本報告提出數位信任路線圖(Digital trust roadmap),說明建立數位信任框架所需的步驟,以鼓勵組織超越合規性,指導領導者尋求符合個人與社會期望之全面措施行動,以實現數位信任。路線圖共分為四步驟: 1.承諾及領導(commit and lead):數位信任需要最高領導階層之承諾才能成功,故需將數位信任與組織戰略或核心價值結合,並從關鍵業務領域中(例如產品開發、行銷、風險管理及隱私與網路安全)即納入數位信任概念。 2.規劃及設計(plan and design):透過數位信任差距評估(digital trust gap assessment)以瞭解組織目前之狀態或差距,評估報告應包括目前狀態說明;期望達成目標建議;治理、風險管理與合規性(governance, risk management and compliance, GRC)調查結果;將帶來之益處及可減輕之風險;計畫時程表;團隊人員及可用工具;對組織之影響等。 3.建立及整合(build and integrate):實現數位信任需關注人員、流程及技術等三大面向。首先需確保人員能力、達成該能力所需之資源,以及人員溝通與管理;第二,定義組織數位信任流程,包括制定計劃所需時程、預算及優先實施領域,調整目前現有管理流程,並識別現有資料資產;最後,針對技術使用,可考慮使用AI監控、雲端管理系統以及區塊鏈等,以監測資料之使用正確性及近用權限管理。 4.監控及滾動調整(monitor and sustain):建立數位信任框架後,需持續建構相關績效及風險評估程序,以確保框架之穩定,並根據不斷變化的數位信任期望持續改善,以及定期向董事會報告。
美國紐約州通過《政府自動化決策監督法》規範州政府使用自動化決策系統紐約州州長於2024年12月21日簽署《政府自動化決策監督法》(Legislative Oversight of Automated Decision-making in Government Act, LOADinG Act),用以規範紐約州政府使用人工智慧自動決策系統的方式以及相關義務,成為美國第一個通過這類法律的州。 該法所定義之「自動化決策系統」係指任何使用演算法、計算模型或人工智慧技術,或其組合的軟體,用於自動化、支援或取代人類決策;這類系統亦包括應用預定義規則或機器學習演算法進行資料分析,並在自動產生結論、建議、結果、假設、預測。 針對政府使用自動化決策系統之情形,《政府自動化決策監督法》有三大重點:人類監督、影響評估以及資訊揭露。 一、人類監督 州政府在提供社會福利資源或其他可能實質影響人民權益與法定權利的業務時,除非是在「有意義的人工審查」下進行操作,否則不得使用自動化決策系統。同時,此法也強調,州政府亦應確保其員工現有權利不會受到自動化決策系統的影響,例如不得因此受到解雇、調職或減薪等。 前述有意義的人工審查,係指對自動化決策流程進行審查、監督及控制的工作人員,必須是受過訓練、對該系統有一定之了解且擁有權力干預、變更系統最終決策的人。 二、影響評估 州政府如欲使用自動化決策系統,應進行影響評估且每兩年應至少重新評估一次;系統在進行重大更新前,也應重新進行影響評估。若評估發現系統產生歧視性或有偏見的結果,機關必須停止使用該系統及其生成的資訊。 影響評估的項目除了性能、演算法及訓練資料外,亦應進行準確性、公平性、偏差歧視、以及個人資料安全等相關測試。 三、資訊揭露 影響評估需在系統實施前至少30天提交給州長與州議會,並在相關機關的網站上公布;僅機關在特殊情況下(例如涉及公共安全考量),州政府可針對報告揭露之資訊進行必要的刪改,但必須說明做出此決定的原因。此外,州政府亦需於本法通過後向州議會提交報告,說明包括系統描述、供應商資訊、使用開始日期、用途、人類決策的支持或取代情況、已進行的影響評估摘要等。 本法強調對人工智慧技術的審慎應用,特別關注其對勞工權益的影響。該法明確規定,禁止在無人類監督的情況下,使用自動化系統進行失業救濟或育兒補助等福利的審核決策,並保障州政府員工不因人工智慧的實施而減少工作時間或職責。此類規定在現行立法中較為罕見,顯示出立法者對勞工權益的高度重視。該法的實施效果及影響,值得未來持續保持關注。