美國食品藥物管理局(The Food and Drug Administration,簡稱FDA)於今年(2014)7月更新並公布了醫療器材上市前審查(premarket notification)的指令(guidance)(該指令名稱為510(k) Program: Evaluating Substantial Equivalence in Premarket Notification,以下簡稱510(k)),針對醫療器材業者將其生產製造的醫療儀器申請上市的過程做了新的調整及規範。此指令主要是讓業界及FDA人員了解FDA在評估醫療器材申請過程中所評估的因素及要點,並藉由FDA在審查醫療器材的實務規範及審查標準來當作標準並訂定510(k)修正,以提高510(k)評估的可預測性、一致性及透明度,讓業界有一定的遵循標準。雖然FDA的指令文件並不受法律強制規範,但可供醫材藥廠清楚FDA所重視的審查程序及內容。
510(k)審查的內容主要規範於美國藥物食品化妝品管理法第513(i)條,其重點規範包括定義FDA評估實質上相同的標準:實質上相同指新醫材在技術上特點(technological characteristics)與比對性醫材相同;若該新醫材的技術特點在材料設計等和比對性醫材不盡相同,其需證明該儀器的資訊包括臨床試驗或是實驗數據等,與比對性醫材的安全及有效性性質並無歧異。以下為FDA在進行510(k)審查過程中,主要的評估內容:
1.說明欲申請上市新醫材在技術上的特點。
2.比較新醫材及比對性醫材在器材技術上特點的異同。欲申請510(k)的製造商需比較新醫材及已上市的醫材在功能上的異同。
3.決定技術特點的差異是否會影響新醫材的安全及有效性。
本文為「經濟部產業技術司科技專案成果」
專利蟑螂(Paten Troll)與非專利實施實體(Non-Practicing Entity, NPE)乃係本身不進行任何生產製造或產品銷售,藉由購買專利權(少數亦自行研發),以專利授權或專利訴訟為主要手段,對其他公司啟動專利攻擊,進而收取授權金或賠償金為營利目標之公司總稱。NPE約自2001年開始出現迅速成長,2011年因NPE專利訴訟與授權所造成的花費高達290億美金,較2005年的70億美金成長400%,而其中僅有不到25%是用於研發創新,超過25%用於訴訟。 美國國會智庫機構,國會研究處(Congressional Research Service, CRS)於今年(2012)8月20日發表「專利蟑螂爭議概要」(An Overview of the "Patent Trolls" Debate)研究報告,分析專利蟑螂的行為及其影響,並提出改善方法及建議: 一、建議限制資訊科技的專利保護,然而此舉可能違反WTO下TRIPS之規定(Agreement on Trade-Related Aspects of Intellectual Property Rights)。 二、許多專利蟑螂與NPE利用專利申請得提出延續案(Continuation),延長專利審查的保密期間。使得他公司可能在不知情下使用該專利而造成侵權。因此建議取消申請中專利提出延續案,並適度公開申請中專利案資訊。 三、限制專利蟑螂與NPE申請美國ITC(International Trade Commission)的禁制令,取消專利推定效力,或改變專利授權金計算方式等。 四、縮短專利權期間或增加專利之維持費。 五、仿效商標法上放棄(abandonment)/怠於行使(laches)商標權之抗辯,對於長期未實施之專利,原告需負舉證責任,證明其有進行該專利之研發、商品化或授權。 六、建議專利轉讓或授權皆應強制公開,以促進市場效率。
加拿大政府提交予國會《人工智慧資料法案》加拿大政府由創新、科學和工業部長(Minister of Innovation, Science and Industry)代表,於2022年6月16日提交C-27號草案,內容包括聯邦的私部門隱私權制度更新,以及新訂的《人工智慧資料法案》(Artificial Intelligence and Data Act, 下稱AIDA)。如獲通過,AIDA將是加拿大第一部規範人工智慧系統使用的法規,其內容環繞「在加拿大制定符合國家及國際標準的人工智慧設計、開發與應用要求」及「禁止某些可能對個人或其利益造成嚴重損害的人工智慧操作行為」兩大目的。雖然AIDA的一般性規則相當簡單易懂,但唯有在正式發布這部包含絕大多數應用狀況的法規後,才能實際了解其所造成的影響。 AIDA為人工智慧監管所設立的框架包含以下六項: (1)方法 以類似於歐盟《人工智慧法案》採用的方式,建立適用於人工智慧系統具「高影響力」的應用方式的規範,關注具有較高損害與偏見風險的領域。 (2)適用範圍 AIDA將適用於在國際與省際貿易及商業行動中,設計、發展或提供人工智慧系統使用管道的私部門組織。「人工智慧系統」的定義則涵蓋任何「透過基因演算法、神經網路、機器學習或其他技術,自動或半自動處理與人類活動相關的資料,以產生結果、做出決策、建議或預測」的技術性系統。 (3)一般性義務 I 評估及緩和風險的措施 負責人工智慧系統的人員應評估它是否是一個「高影響系統」(將在後續法規中詳細定義),並制定措施以辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果。 II 監控 對該「高影響系統」負責的人員應建立準則,以監控風險緩解措施的遵守情況。 III 透明度 提供使用管道或管理「高影響系統」運作的人員應在公開網站上,以清晰的英語揭露 i 系統如何或打算如何使用。 ii 系統所生成果的類型及它所做出的決策、建議與預測。 iii 為辨識、評估與減輕使用該系統可能造成的傷害風險或具有偏見的結果,而制定的緩解措施。 iv 法規明定應揭露的其他訊息。 IV 記錄保存 執行受規範活動的人員應遵守紀錄保存要求。 V 通知 若使用該系統將導致或可能導致重大傷害,「高影響系統」的負責人應通知部門首長。 VI 匿名資料的使用 從事法案所規定的活動及在活動過程中使用或提供匿名資料的人員,必須依據規範制定關於(a)資料被匿名化處理的方式(b)被匿名化資料的使用與管理,兩方面的措施。 (4)部長命令 部門首長可以透過命令要求(a)製作紀錄(b)從事審計或聘請一位獨立的審計師執行(c)成立一個專責執行審計程序的組織(d)成立一個在有理由相信「高影響系統」之使用可能造成急迫重大傷害風險時負責進行終止或准許的組織。 (5)行政管理 AIDA為部門首長制定一項,可指定其所管轄部門中一名高級官員為「人工智慧與資料專員」的權利,其職責在協助部門首長管理與執行AIDA。 (6)罰則 違反AIDA規範之罰則主要為按公司、個人之收入衡量的罰款。特定嚴重狀況如以非法方式取得人工智慧訓練用資料、明知或故意欺騙大眾造成嚴重或心理傷害或財產上重大損失,亦可能判處刑事監禁。
美國白宮於2019年5月發布總統令,提升聯邦及全國之資安人力美國白宮(the White House)於2019年5月2日發布第13870號總統令(Executive Order),旨在說明美國的資安人力政策規劃。 於聯邦層級的資安人力提升(Strengthening the Federal Cybersecurity Workforce)上,由國土安全部(Department of Homeland Security, DHS)部長、管理預算局(Office of Management and Budget, OMB)局長及人事管理局(Office of Personnel Management, OPM)局長共同推動網路安全專職人員輪調工作計畫(cybersecurity rotational assignment program),計畫目標包含:輪調國土安全部與其他機關IT及資安人員、提供培訓課程提升計畫參與者之技能、建立同儕師徒制(peer mentoring)加強人力整合,以及將NIST於2017年提出之國家網路安全教育倡議(National Initiative for Cybersecurity Education, NICE)和網路安全人力框架(Cybersecurity Workforce Framework, NICE Framework,以下合稱NICE框架),作為參與者的最低資安技能要求。同時上述部長及局長,須向總統提交報告說明達成上述目標之執行方案。 於國家層級的資安人力提升(Strengthening the Nation’s Cybersecurity Workforce)上,則表示商務部部長(Secretary of Commerce)、勞工部部長(Secretary of Labor)、教育部部長(Secretary of Education)、國土安全部部長與其他相關機關首長,應鼓勵州、領土、地方、部落、學術界、非營利與私部門實體於合法之情況下,自願於教育、訓練和人力發展中納入NICE框架。此外,將每年頒發總統網路安全教育獎(Presidential Cybersecurity Education Award),給予致力於傳授資安知識之中小學教育工作者。 綜上所述,美國將透過制度、教育與獎勵等方式培育資安人才,提升國內資安人才的質與量,以因應越來越險峻的資安威脅與風險。
日本發布創新治理報告書,主張強化企業等對法規範形成的實質參與日本經濟產業省於2020年7月13日發布「創新治理:實現Society5.0的法規與結構設計(GOVERNANCE INNOVATION: Society5.0の実現に向けた法とアーキテクチャのリ・デザイン)」報告書。其作成背景係依據日本在去(2019)年G20峰會時,基於大阪框架(大阪トラック、Osaka Track)下的「可資信任的資料自由流通機制(Data Free Flow with Trust(DFFT))願景,所提出的創新治理目標。該目標指出,過往的治理模式主要依靠法律規範,但明顯已追趕不及數位化與創新的快速步伐,致生新型態風險無法獲得有效控管、法律可能阻礙創新等問題,因而有必要革新治理模式,以掃除創新活動的障礙。基此,就上述創新治理模式的必要性與方式,日本召集國內外法律、經濟、科技、經濟等各界專家徵求意見進行討論,彙整後作成本報告書。 本報告書主張,應擺脫法規範的設計、法遵與執行,均由國家主導的傳統模式,建立提高企業參與規範擬定與實施程度的治理型態。具體主要包含以下作法: (1)法規範制定層面:規範之制定方向,改以作成價值決定的目的導向為主。至於細節性的行為義務,包含企業如何在數位化的虛擬場域內,透過程式語言等途徑落實上述法目的,則應由該些企業、以及在虛擬場域活動的社群或個人等利害關係人共同參與擬定相關的指引或標準。 (2)法遵層面:如上(1)所述,未來法規範制定將轉為形塑價值與目的為主,不會明確訂定企業的行為義務,而交由企業來擬訂。企業所制定之行為規範能否達成法規範目的,則須仰賴企業主動揭露其法遵方法,供外界檢視。因此,除企業應採用創新手法達成法目的、並對內落實法遵事項的說明外,應運用各種內外部查核機制來控管風險。同時,應著手研發相關技術或措施,讓利害關係人得取用企業之即時資料,以隨時確認企業所採取方法有無達成法遵,實現有效監督。 (3)執法層面:政府應以企業之行為對社會產生影響的程度,作為執法標準。若遭遇AI參與決策而衍生的事故,不應歸責於個人,而應建立獎勵機制,鼓勵企業積極協助究明事故原因。另一方面,亦應推動訴訟與訴訟外紛爭解決機制的線上化(Online Dispute Resolution, ODR),例如共享經濟平台服務的認證機制與標準、就電商平台上發生的小額消費糾紛由平台透過公告罰則等方式抑止與處理糾紛。